am_thinking 2016-03-01 01:53 采纳率: 50%
浏览 5930

请问scrapy爬虫使用代理的问题

我用scrapy爬虫来抓取数据,购买了一些代理,看scrapy文档上面介绍使用代理的话要编写Middleware,但是我不打算使用Middleware,我尝试了这样

 def start_requests(self):
    name = my_name
    password = password
    proxy = my proxy
    return[
           FormRequest(url,formate={'account':my_name,'password':password},
                      meta={'proxy':proxy},
                      callback=self.after_login)
        ]
def after_login(self, response):
    response.xpath

但是返回了错误,请问各位老师如何不使用middleware然后可以使用代理?谢谢

  • 写回答

1条回答 默认 最新

  • oyljerry 2016-03-01 04:10
    关注
    评论

报告相同问题?

悬赏问题

  • ¥15 求差集那个函数有问题,有无佬可以解决
  • ¥15 【提问】基于Invest的水源涵养
  • ¥20 微信网友居然可以通过vx号找到我绑的手机号
  • ¥15 寻一个支付宝扫码远程授权登录的软件助手app
  • ¥15 解riccati方程组
  • ¥15 display:none;样式在嵌套结构中的已设置了display样式的元素上不起作用?
  • ¥15 使用rabbitMQ 消息队列作为url源进行多线程爬取时,总有几个url没有处理的问题。
  • ¥15 Ubuntu在安装序列比对软件STAR时出现报错如何解决
  • ¥50 树莓派安卓APK系统签名
  • ¥65 汇编语言除法溢出问题