应对爬虫超时问题在requests中加入了timeout,然后用try except 然而这个每次try一波如果timeout了他居然直接跳过执行下一个了(try except放在for中)如何timeout后重新执行一次
2条回答 默认 最新
- Pliosauroidea 2021-09-09 18:28关注
?那你就在except里面再嵌套一个try except结构重试一次,如果还是不行再考虑处理逻辑
或者把失败的网址在except里面都加入一个列表中,循环结束后对列表中失败的网址再get一遍
有帮助望采纳本回答被题主选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏 举报
悬赏问题
- ¥15 求差集那个函数有问题,有无佬可以解决
- ¥15 【提问】基于Invest的水源涵养
- ¥20 微信网友居然可以通过vx号找到我绑的手机号
- ¥15 寻一个支付宝扫码远程授权登录的软件助手app
- ¥15 解riccati方程组
- ¥15 display:none;样式在嵌套结构中的已设置了display样式的元素上不起作用?
- ¥15 使用rabbitMQ 消息队列作为url源进行多线程爬取时,总有几个url没有处理的问题。
- ¥15 Ubuntu在安装序列比对软件STAR时出现报错如何解决
- ¥50 树莓派安卓APK系统签名
- ¥65 汇编语言除法溢出问题