Curry_warrior 2019-11-13 09:36 采纳率: 50%
浏览 401
已结题

关于python网络爬虫网页失效的处理提问

小弟在做网络爬虫抓取网站上所有的图片,但是有些图片的链接是失效的。我用的request连接这些网站,在把request得到的东西写入到本地电脑中。可是碰到无效网站时,request就会报错,后续就进行不下去了,怎么处理这个问题呢图片说明

image_file=open(im_name,'wb')
imgs=requests.get(im_iter)  #im_iter是我用正则表达式截出来的图片链接
image_file.write(imgs.content)
image_file.close()

这是小弟保存图片的代码

  • 写回答

2条回答

  • threenewbee 2019-11-13 10:04
    关注
    try:
        可能出错的语句
    except :
        pass
    
    评论

报告相同问题?

悬赏问题

  • ¥15 对于相关问题的求解与代码
  • ¥15 ubuntu子系统密码忘记
  • ¥15 信号傅里叶变换在matlab上遇到的小问题请求帮助
  • ¥15 保护模式-系统加载-段寄存器
  • ¥15 电脑桌面设定一个区域禁止鼠标操作
  • ¥15 求NPF226060磁芯的详细资料
  • ¥15 使用R语言marginaleffects包进行边际效应图绘制
  • ¥20 usb设备兼容性问题
  • ¥15 错误(10048): “调用exui内部功能”库命令的参数“参数4”不能接受空数据。怎么解决啊
  • ¥15 安装svn网络有问题怎么办