袅袅的烟 2021-12-22 17:33 采纳率: 50%
浏览 1390
已结题

Python爬虫配合VPN爬取出现报错


```python

def get_url():
    url_list = []
    for a in range(1,3): #页数
        url = 'xxxxx/page/{}/'.format(a)
        html = requests.get(url,headers=headers).text
        soup = BeautifulSoup(html, 'lxml')
        soup = soup.find_all('div', class_='gridhub-posts gridhub-posts-grid')[0]
        for i in range(0,10): 
            data = soup.find_all('div',class_= 'gridhub-grid-post gridhub-5-col')[i]
            url = data.find_all('a',class_= 'gridhub-grid-post-thumbnail-link')[0].get('href')
            url = url + '1/'
            if len(url)>6 and url not in url_list:
                url_list.append(url)
            else:
                pass
    print('页数数据获取完毕')
    return url_list
 

```

运行结果及报错内容

```显示如下报错:
urllib3.exceptions.MaxRetryError: HTTPSConnectionPool(host='xx', port=443): Max retries exceeded with url: xxx (Caused by SSLError(SSLEOFError(8, 'EOF occurred in violation of protocol (_ssl.c:1124)')))

requests.exceptions.SSLError: HTTPSConnectionPool(host='xxx', port=443): Max retries exceeded with url:xxx (Caused by SSLError(SSLEOFError(8, 'EOF occurred in violation of protocol (_ssl.c:1124)')))

我的解答思路和尝试过的方法

{pip install cryptography
pip install pyOpenSSL
pip install certifi -- 无效}

我想要达到的结果

若关闭VPN爬取其他网站(国内)就无报错?
如何解决VPN配合爬虫报错的问题?百度之后给予的方案(如下)无效

  • 写回答

1条回答 默认 最新

  • 星空下0516 2021-12-22 19:23
    关注

    你这个是VPN代理问题,你可以将VPN设置成部分代理,不要全部代理你的网络。

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论

报告相同问题?

问题事件

  • 系统已结题 1月6日
  • 已采纳回答 12月29日
  • 创建了问题 12月22日

悬赏问题

  • ¥15 我想咨询一下路面纹理三维点云数据处理的一些问题,上传的坐标文件里是怎么对无序点进行编号的,以及xy坐标在处理的时候是进行整体模型分片处理的吗
  • ¥15 CSAPPattacklab
  • ¥15 一直显示正在等待HID—ISP
  • ¥15 Python turtle 画图
  • ¥15 关于大棚监测的pcb板设计
  • ¥15 stm32开发clion时遇到的编译问题
  • ¥15 lna设计 源简并电感型共源放大器
  • ¥15 如何用Labview在myRIO上做LCD显示?(语言-开发语言)
  • ¥15 Vue3地图和异步函数使用
  • ¥15 C++ yoloV5改写遇到的问题