萤火与星 2016-11-26 02:22 采纳率: 0%
浏览 40669

求助 python爬虫 requests的get出现10054错误 远程主机强迫关闭了一个现有的连接

这个爬的是智联的招聘信息,在爬了上千条数据后就容易出现这个错误。

Traceback (most recent call last):
File "G:/python/zhilian_crawler/crawler3.py", line 284, in
get_more_page(1,91)
File "G:/python/zhilian_crawler/crawler3.py", line 170, in get_more_page
get_page(url+str(one))
File "G:/python/zhilian_crawler/crawler3.py", line 28, in get_page
get_more_data(soup)
File "G:/python/zhilian_crawler/crawler3.py", line 159, in get_more_data
webData=requests.get(url0)
File "D:\Python3\lib\requests\api.py", line 70, in get
return request('get', url, params=params, **kwargs)
File "D:\Python3\lib\requests\api.py", line 56, in request
return session.request(method=method, url=url, **kwargs)
File "D:\Python3\lib\requests\sessions.py", line 475, in request
resp = self.send(prep, **send_kwargs)
File "D:\Python3\lib\requests\sessions.py", line 596, in send
r = adapter.send(request, **kwargs)
File "D:\Python3\lib\requests\adapters.py", line 473, in send
raise ConnectionError(err, request=request)
requests.exceptions.ConnectionError: ('Connection aborted.', ConnectionResetError(10054, '远程主机强迫关闭了一个现有的连接。', None, 10054, None))

  • 写回答

5条回答 默认 最新

  • assange_h 2017-02-28 16:46
    关注

    1、head中有一个user-agent每次都换不同的模拟代理
    2、测试最大访问时间短,每秒多少次请求会出现中断,然后sleep(200)毫秒
    2、每次请求中断上一次链接,keep-live=false
    试试看,
    不然就是换IP访问

    评论
  • oyljerry 2016-11-26 06:29
    关注

    应该是服务器发现你的爬虫行为了,所有强制断开链接了。

    评论
  • 探索者v 博客专家认证 2017-01-01 16:52
    关注

    服务器知道你是爬虫,加headers, 模拟浏览器agent ,爬完一个暂停几秒

    评论
  • 吃三个汉堡 2019-02-22 02:12
    关注
    import time
    
    评论
  • 像出了画面感 2021-06-26 04:50
    关注

    问题解决没有,我出现了个你这个一模一样的error

    评论
编辑
预览

报告相同问题?

手机看
程序员都在用的中文IT技术交流社区

程序员都在用的中文IT技术交流社区

专业的中文 IT 技术社区,与千万技术人共成长

专业的中文 IT 技术社区,与千万技术人共成长

关注【CSDN】视频号,行业资讯、技术分享精彩不断,直播好礼送不停!

关注【CSDN】视频号,行业资讯、技术分享精彩不断,直播好礼送不停!

客服 返回
顶部