应对爬虫超时问题在requests中加入了timeout,然后用try except 然而这个每次try一波如果timeout了他居然直接跳过执行下一个了(try except放在for中)如何timeout后重新执行一次
2条回答 默认 最新
- Pliosauroidea 2021-09-09 18:28关注
?那你就在except里面再嵌套一个try except结构重试一次,如果还是不行再考虑处理逻辑
或者把失败的网址在except里面都加入一个列表中,循环结束后对列表中失败的网址再get一遍
有帮助望采纳本回答被题主选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏 举报
悬赏问题
- ¥15 R语言卸载之后无法重装,显示电脑存在下载某些较大二进制文件行为,怎么办
- ¥15 java 的protected权限 ,问题在注释里
- ¥15 这个是哪里有问题啊?
- ¥15 关于#vue.js#的问题:修改用户信息功能图片无法回显,数据库中只存了一张图片(相关搜索:字符串)
- ¥15 texstudio的问题,
- ¥15 spaceclaim模型变灰色
- ¥15 求一份华为esight平台V300R009C00SPC200这个型号的api接口文档
- ¥15 字符串比较代码的漏洞
- ¥15 欧拉系统opt目录空间使用100%
- ¥15 ul做导航栏格式不对怎么改?