袅袅的烟 2021-12-22 17:33 采纳率: 50%
浏览 1447
已结题

Python爬虫配合VPN爬取出现报错


```python

def get_url():
    url_list = []
    for a in range(1,3): #页数
        url = 'xxxxx/page/{}/'.format(a)
        html = requests.get(url,headers=headers).text
        soup = BeautifulSoup(html, 'lxml')
        soup = soup.find_all('div', class_='gridhub-posts gridhub-posts-grid')[0]
        for i in range(0,10): 
            data = soup.find_all('div',class_= 'gridhub-grid-post gridhub-5-col')[i]
            url = data.find_all('a',class_= 'gridhub-grid-post-thumbnail-link')[0].get('href')
            url = url + '1/'
            if len(url)>6 and url not in url_list:
                url_list.append(url)
            else:
                pass
    print('页数数据获取完毕')
    return url_list
 

```

运行结果及报错内容

```显示如下报错:
urllib3.exceptions.MaxRetryError: HTTPSConnectionPool(host='xx', port=443): Max retries exceeded with url: xxx (Caused by SSLError(SSLEOFError(8, 'EOF occurred in violation of protocol (_ssl.c:1124)')))

requests.exceptions.SSLError: HTTPSConnectionPool(host='xxx', port=443): Max retries exceeded with url:xxx (Caused by SSLError(SSLEOFError(8, 'EOF occurred in violation of protocol (_ssl.c:1124)')))

我的解答思路和尝试过的方法

{pip install cryptography
pip install pyOpenSSL
pip install certifi -- 无效}

我想要达到的结果

若关闭VPN爬取其他网站(国内)就无报错?
如何解决VPN配合爬虫报错的问题?百度之后给予的方案(如下)无效

  • 写回答

1条回答 默认 最新

  • 星空下0516 2021-12-22 19:23
    关注

    你这个是VPN代理问题,你可以将VPN设置成部分代理,不要全部代理你的网络。

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论

报告相同问题?

问题事件

  • 系统已结题 1月6日
  • 已采纳回答 12月29日
  • 创建了问题 12月22日

悬赏问题

  • ¥30 类鸟群Boids——仿真鸟群避障的相关问题
  • ¥15 CFEDEM自带算例错误,如何解决?
  • ¥15 有没有会使用flac3d软件的家人
  • ¥20 360摄像头无法解绑使用,请教解绑当前账号绑定问题,
  • ¥15 docker实践项目
  • ¥15 数电几道习题,写出作答过程,ai一律不采用
  • ¥15 利用pthon计算薄膜结构的光导纳
  • ¥15 海康hlss视频流怎么播放
  • ¥15 Paddleocr:out of memory error on GPU
  • ¥30 51单片机C语言数码管驱动单片机为AT89C52