XuriBing 2017-03-23 03:56 采纳率: 100%
浏览 4978
已结题

python+scrapy+selenium爬虫超时和连接被拒绝问题

在使用爬虫抓取 网站的时候,启动了多个进程,运行一段时间后有的进程会无缘无故的停止,,,,还经常会出现超时,,,,还有一个连接被拒绝的错误,,,请教大神这些问题产生的原因有哪些,,,怎么解决的.。。。。
附连接拒绝的错误
图片说明

  • 写回答

4条回答

  • oyljerry 2017-03-23 04:42
    关注

    一个是爬虫的个数,可能被服务器判断出在扒取数据了,还有就是同一个IP访问过多,
    所以拒绝你的连接。

    一个是降低扒取的频率,还有就是增加proxy代理,通过不同的IP爬取网站

    评论

报告相同问题?

悬赏问题

  • ¥50 求图像处理的matlab方案
  • ¥50 winform中使用edge的Kiosk模式
  • ¥15 关于#python#的问题:功能监听网页
  • ¥15 怎么让wx群机器人发送音乐
  • ¥15 fesafe材料库问题
  • ¥35 beats蓝牙耳机怎么查看日志
  • ¥15 Fluent齿轮搅油
  • ¥15 八爪鱼爬数据为什么自己停了
  • ¥15 交替优化波束形成和ris反射角使保密速率最大化
  • ¥15 树莓派与pix飞控通信