am_thinking 2016-03-01 01:53 采纳率: 50%
浏览 5930

请问scrapy爬虫使用代理的问题

我用scrapy爬虫来抓取数据,购买了一些代理,看scrapy文档上面介绍使用代理的话要编写Middleware,但是我不打算使用Middleware,我尝试了这样

 def start_requests(self):
    name = my_name
    password = password
    proxy = my proxy
    return[
           FormRequest(url,formate={'account':my_name,'password':password},
                      meta={'proxy':proxy},
                      callback=self.after_login)
        ]
def after_login(self, response):
    response.xpath

但是返回了错误,请问各位老师如何不使用middleware然后可以使用代理?谢谢

  • 写回答

1条回答

  • oyljerry 2016-03-01 04:10
    关注
    评论

报告相同问题?

悬赏问题

  • ¥60 更换迈创SOL6M4AE卡的时候,驱动要重新装才能使用,怎么解决?
  • ¥15 让node服务器有自动加载文件的功能
  • ¥15 jmeter脚本回放有的是对的有的是错的
  • ¥15 r语言蛋白组学相关问题
  • ¥15 Python时间序列如何拟合疏系数模型
  • ¥15 求学软件的前人们指明方向🥺
  • ¥50 如何增强飞上天的树莓派的热点信号强度,以使得笔记本可以在地面实现远程桌面连接
  • ¥20 双层网络上信息-疾病传播
  • ¥50 paddlepaddle pinn
  • ¥20 idea运行测试代码报错问题