scrapy 一个项目 多爬虫 如何分别用自身的爬虫名 命名产生的log文件?

在一个scrapy项目中,我写了几个爬虫,不管是同时运行还是分别顺序运行,
我想每个爬虫分别产生独立的log文件,要有分辨性,就想用爬虫名来作为
log文件名。如果不自己写log设置模块,在settings里能实现吗?谢谢各位
大佬解答一下。

2个回答

不能,得用log模块

weixin_43431838
@蚍蜉 是说我只能使用自己写一个扩展的log模块吗
4 个月之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
立即提问