Lzq_1010 2019-11-12 20:40 采纳率: 0%
浏览 329

新人求教。scrapy去重问题

大多数都是当次执行里面的去重这个理解,如果关闭了程序,或者说再次执行爬虫,怎么确保数据去重呢?

新人,求大佬指点

  • 写回答

1条回答 默认 最新

  • 放风喽 2019-11-18 10:22
    关注

    无解
    我都是把要爬的网址存数据库,爬一个,修改一下这个网址的状态,随时中断,随时开启

    评论

报告相同问题?