自沉于海 2017-06-13 07:00 采纳率: 0%
浏览 4635

如何把scrapy爬出来的数据导入csv文件

import csv
import pymysql
from scrapy.exceptions import DropItem
class UeinfoPipeline(object):
def process_item(self, item, spider):
list=[]
pinpai = item["pinpai"][0]
xinghao=item["xinghao"][0]
yuefen=item["yuefen"][0]
nianfen=item["nianfen"][0]
list.append(pinpai)
list.append(xinghao)
list.append(yuefen)
list.append(nianfen)
with open("test.csv", "w") as csvfile:
fieldnames = ['first_name', 'last_name','username']
writer=csv.DictWriter(csvfile,fieldnames=fieldnames)
writer.writeheader()
writer.writerows(list)
return item
def close_spider(self,spider):
self.conn.close()

错误代码如下:
Traceback (most recent call last):
File "d:\programdata\anaconda3\lib\site-packages\twisted\internet\defer.py", line 653, in _runCallbacks
current.result = callback(current.result, *args, **kw)
File "D:\ueinfo\ueinfo\pipelines.py", line 36, in process_item
writer.writerows(list)
File "d:\programdata\anaconda3\lib\csv.py", line 158, in writerows
return self.writer.writerows(map(self._dict_to_list, rowdicts))
File "d:\programdata\anaconda3\lib\csv.py", line 148, in _dict_to_list
wrong_fields = rowdict.keys() - self.fieldnames
AttributeError: 'str' object has no attribute 'keys'
2017-06-13 14:56:40 [scrapy.core.engine] INFO: Closing spider (finished)
2017-06-13 14:56:40 [scrapy.statscollectors] INFO: Dumping Scrapy stats:

  • 写回答

1条回答 默认 最新

  • CSDN-Ada助手 CSDN-AI 官方账号 2022-09-09 17:33
    关注
    不知道你这个问题是否已经解决, 如果还没有解决的话:

    如果你已经解决了该问题, 非常希望你能够分享一下解决方案, 以帮助更多的人 ^-^
    评论

报告相同问题?

悬赏问题

  • ¥15 执行 virtuoso 命令后,界面没有,cadence 启动不起来
  • ¥50 comfyui下连接animatediff节点生成视频质量非常差的原因
  • ¥20 有关区间dp的问题求解
  • ¥15 多电路系统共用电源的串扰问题
  • ¥15 slam rangenet++配置
  • ¥15 有没有研究水声通信方面的帮我改俩matlab代码
  • ¥15 ubuntu子系统密码忘记
  • ¥15 保护模式-系统加载-段寄存器
  • ¥15 电脑桌面设定一个区域禁止鼠标操作
  • ¥15 求NPF226060磁芯的详细资料