天长 2021-09-02 17:19 采纳率: 100%
浏览 49
已结题

scrapy框架中多爬虫文件情况下怎么设置那个爬虫走那个管道类呢?

我想要实现爬虫结束时把redis中剩下没达到输出文件所需数量的数据输出。于是想到了管道里的close_spider。可是不知道该如何下手,在管道文件中创建几个类来分别处理这些爬虫的需求?还是说有什么别的办法。

  • 写回答

2条回答 默认 最新

  • 考古学家lx(李玺) python领域优质创作者 2021-09-03 13:07
    关注

    方法一:
    在pipeline里添加管道类,在close_spider方法里根据 spider.name 进行判断,进行对应处理
    最后在settings中开启管道。

    方法二:
    scrapy用system命令在py文件中启动是以顺序流进行的,可以 os.system("scrapy crawl xxx") ,下一行写上redis处理过程即可

    方法三:
    完全可以通过另一个进程来做这件事,当监控到爬虫进程结束后,然后处理redis数据。

    下次来社区问啊, 爬虫逆向社区-爬虫逆向论坛-CSDN社区云 CSDN爬虫逆向社区,爬虫逆向论坛,为中国软件开发者打造学习和成长的家园 https://bbs.csdn.net/forums/lx

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(1条)

报告相同问题?

问题事件

  • 系统已结题 9月11日
  • 已采纳回答 9月3日
  • 创建了问题 9月2日

悬赏问题

  • ¥15 关于#java#的问题:找一份能快速看完mooc视频的代码
  • ¥15 这种微信登录授权 谁可以做啊
  • ¥15 请问我该如何添加自己的数据去运行蚁群算法代码
  • ¥20 用HslCommunication 连接欧姆龙 plc有时会连接失败。报异常为“未知错误”
  • ¥15 网络设备配置与管理这个该怎么弄
  • ¥20 机器学习能否像多层线性模型一样处理嵌套数据
  • ¥20 西门子S7-Graph,S7-300,梯形图
  • ¥50 用易语言http 访问不了网页
  • ¥50 safari浏览器fetch提交数据后数据丢失问题
  • ¥15 matlab不知道怎么改,求解答!!