weixin_54686435 2021-09-06 03:21 采纳率: 61.5%
浏览 33
已结题

requests爬虫怎么能重新访问我失败的网页

我这边使用了代理ip去请求网站,当我ip失效的时候,ip会自动更换,但是我怎么才能重新在请求一次这个网站呢?requests有没有能多次请求的办法啊?能让我的代理ip失效请求的网站,让我在次请求呢?

  • 写回答

2条回答 默认 最新

  • Pliosauroidea 2021-09-06 07:59
    关注

    可以通过打印status code做判断,判别出超时或者非200的status就按逻辑重连几次
    有帮助望采纳

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(1条)

报告相同问题?

问题事件

  • 系统已结题 9月14日
  • 已采纳回答 9月6日
  • 创建了问题 9月6日

悬赏问题

  • ¥15 用verilog实现tanh函数和softplus函数
  • ¥15 Hadoop集群部署启动Hadoop时碰到问题
  • ¥15 求京东批量付款能替代天诚
  • ¥15 slaris 系统断电后,重新开机后一直自动重启
  • ¥15 QTableWidget重绘程序崩溃
  • ¥15 谁能帮我看看这拒稿理由啥意思啊阿啊
  • ¥15 关于vue2中methods使用call修改this指向的问题
  • ¥15 idea自动补全键位冲突
  • ¥15 请教一下写代码,代码好难
  • ¥15 iis10中如何阻止别人网站重定向到我的网站