m0_57965808 2021-08-15 16:39 采纳率: 90.9%
浏览 37
已结题

使用Python从网站批量爬取图片并保存到本地时出现了问题

如题,具体情况为前面几张图片保存的都没有什么问题,但是突然到其中一张时就卡壳了,我怀疑是想要保存图片的名字出现了问题。所以我想请教一下有没有什么办法,可以将这一类不符合规范的东西另存起来,或者直接跳过去,最后集中处理。
img

img

img

img

  • 写回答

1条回答 默认 最新

  • 鸡蛋酱$ 2021-08-15 17:11
    关注

    可以把你的程序搞成一个死循环,每开始下载图片就计算时间,执行完下载命令在算一次时间,两次时间做差,当时间大于你估计报错的时间的时候就continue,执行完全部的下载命令后就break,中间出现报错的那些网址你可以全部存入一个列表,到最后统一处理,有用的话点一下采纳

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论

报告相同问题?

问题事件

  • 系统已结题 8月23日
  • 已采纳回答 8月15日
  • 创建了问题 8月15日

悬赏问题

  • ¥15 用土力学知识进行土坡稳定性分析与挡土墙设计
  • ¥70 PlayWright在Java上连接CDP关联本地Chrome启动失败,貌似是Windows端口转发问题
  • ¥15 帮我写一个c++工程
  • ¥30 Eclipse官网打不开,官网首页进不去,显示无法访问此页面,求解决方法
  • ¥15 关于smbclient 库的使用
  • ¥15 微信小程序协议怎么写
  • ¥15 c语言怎么用printf(“\b \b”)与getch()实现黑框里写入与删除?
  • ¥20 怎么用dlib库的算法识别小麦病虫害
  • ¥15 华为ensp模拟器中S5700交换机在配置过程中老是反复重启
  • ¥15 uniapp uview http 如何实现统一的请求异常信息提示?