2 qq 34358013 qq_34358013 于 2016.04.23 22:17 提问

用Python的requests.get获取网页源代码出现ConnectionError 1C

如下为具体报错:
requests.exceptions.ConnectionError: HTTPConnectionPool(host='seth_shy', port=80): Max retries exceeded with url: http://www.jikexueyuan.com/ (Caused by ProxyError('Cannot connect to proxy.', NewConnectionError(': Failed to establish a new connection: [Errno 11004] getaddrinfo failed',)))

4个回答

devmiao
devmiao   Ds   Rxr 2016.04.23 23:44
qq_23214785
qq_23214785   2016.05.25 11:34

用神箭手云爬虫吧,自带高匿ip代理。

oyljerry
oyljerry   Ds   Rxr 2016.04.24 13:36

代理连不上 或者你的目标机器访问不了

qq_34358013
qq_34358013 网络什么的都没有问题,网站也没有问题
大约 2 年之前 回复
qq_34358013
qq_34358013 那请问要怎么修复呢?
大约 2 年之前 回复
weixin_40284075
weixin_40284075   2018.05.03 14:24

这个估计是电脑的系统安全限制的原因,我用的是公司的电脑,如果不加公司的代理就是访问不了的。

Csdn user default icon
上传中...
上传图片
插入图片
准确详细的回答,更有利于被提问者采纳,从而获得C币。复制、灌水、广告等回答会被删除,是时候展现真正的技术了!
其他相关推荐
requests.get为什么得到的内容和查看源文件不一样?
由于初学爬虫 尝试着在beausoup库和re正则间来回爬去加强对两种方法的理解 但是利用正则的时候出现了一个这么个问题 源文件打开 找到的元素 在requests.get竟然没有 虽然很简单的一个问题 但是困扰了我半个多小时 这里吧一些经验总结下来 避免少走弯路 拿最简单的静态 贴吧为例 我们打开url:         http://tieba.baidu.com/i/i/fan
Python篇----Requests获取网页源码(爬虫基础)
Requests is an Apache2 Licensed HTTP library, written inPython, for human beings. Python’s standard urllib2 module provides most ofthe HTTP capabilities you need, but the API is thoroughlybroken.It was built for a different time — and a different web. It
Python使用requests来抓取网页
文章转载自:http://www.yangyanxing.com/?p=10791. requests介绍早就听说requests的库的强大,只是还没有接触,今天接触了一下,发现以前使用urllib,urllib2等方法真是太搓了……这里写些简单的使用初步作为一个记录一、安装 http://cn.python-requests.org/en/latest/user/install.html#ins
python3使用requests模块的get方法做爬虫(伪装浏览器)
获取网页对象可以使用两种方法: 使用urllib模块的urlopen方法: import urllib reponse=urllib.urlopen("http://www.itcast.cn") print(reponse.read()) reponse.read():打开网页源代码。 reponse.getcode():获取http状态码:200表示请求完成,4
使用python的requests库爬取数据时候遇到的ConnectionError
    最近刚得到一个爬取网络数据的源代码,刚开始爬取少量数据的时候,一切顺利。可是随着爬取的数据越来越庞大,问题也就越来越多了。遇到的一个比较头疼的问题就是连接错误。具体错误信息如下:    Traceback (most recent call last):  File "new_request2.py", line 82, in <module>    result = requ...
python使用requests和BeautifulSoup爬取网页乱码问题
微信搜索关注“程序员旅途”,查看更多python使用requests和BeautifulSoup爬取网页乱码问题requests和beautifulsoup模块都会自行评测原网页的编码格式,所以存在评测错误的情况,所以可以在requests爬取之后Beautifulsoup调用之前对内容进行编码(设为网页本身的编码格式)即可,例如:网页编码为:[python] view plain copy#en...
Python requests 多线程抓取 出现HTTPConnectionPool Max retires exceeded异常
场景: 在做爬虫项目或者是在发送网络请求的时候,一般都会用到request模块,但是经常会遇到: HTTPConnectionPool Max retires exceeded read time out的问题 查阅资料后发现,出现异常的原因是因为,requests在发送http请求之后,并没有关闭http连接导致,连接过多然后阻塞。 requests使用了urllib3库,默认的...
python中requests爬去网页内容出现乱码的解决方案
最近在学习python爬虫,使用requests的时候遇到了不少的问题,比如说在requests中如何使用cookies进行登录验证,这可以查看博客内容。这篇博客要解决的问题是如何避免在使用requests的时候出现乱码。 import requests res=requests.get("https://www.baidu.com") print res.content以上就是使用re
爬虫基础--requests库(获取网页信息)
官网文档–http://docs.python-requests.org/zh_CN/latest/user/quickstart.html 发送get,post请求 res=requests.get(url) #发送get请求,请求url地址对应的响应 res=requests.post(url,data={请求的字典}) #发送post请求 #post请求 impo...
requests爬取中文网站的字符编码问题
这两天在一些门户网站使用requests爬数据的时候,发现打印或者保存到文件中的中文显示为Unicode码,看着十分不爽快,于是就必须网上找了一下相关问题。其实,弄明白了解决也很简单了    比如,爬取凤凰网response= requests.get("http://www.ifeng.com/")   我们都知道response有text和content这两个property,它们都是指响应内