羽中飞人 2021-06-03 15:53 采纳率: 52.2%
浏览 219
已采纳

python多线程爬虫如何在中断后继续上次的断点下载数据

比如某个网站有几十万页的数据,爬虫经常会遇到各个异常

不可能每次异常后,都重新从首页下载数据

那么如何在某次中断后,继续上次的断点继续下载?

我试过在mysql上新建一个表格,来实时记录每一页数据的状态,比如某页开始下载是0,没成功是NaN,页面没有数据是-1,成功是1,共4个状态

但mysql数据库,在多线程的情况下,频繁读取数据库,会有异常,同时也觉得不安全

请问大神,有什么好的方案解决吗

 

  • 写回答

3条回答 默认 最新

  • =XHG78999= 2021-06-04 21:35
    关注

    redis记没成功的不就完事了,带同步访问,doge

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(2条)

报告相同问题?

悬赏问题

  • ¥15 【提问】基于Invest的水源涵养
  • ¥20 微信网友居然可以通过vx号找到我绑的手机号
  • ¥15 寻一个支付宝扫码远程授权登录的软件助手app
  • ¥15 解riccati方程组
  • ¥15 display:none;样式在嵌套结构中的已设置了display样式的元素上不起作用?
  • ¥15 使用rabbitMQ 消息队列作为url源进行多线程爬取时,总有几个url没有处理的问题。
  • ¥15 Ubuntu在安装序列比对软件STAR时出现报错如何解决
  • ¥50 树莓派安卓APK系统签名
  • ¥65 汇编语言除法溢出问题
  • ¥15 Visual Studio问题