自沉于海 2017-06-13 07:00 采纳率: 0%
浏览 4635

如何把scrapy爬出来的数据导入csv文件

import csv
import pymysql
from scrapy.exceptions import DropItem
class UeinfoPipeline(object):
def process_item(self, item, spider):
list=[]
pinpai = item["pinpai"][0]
xinghao=item["xinghao"][0]
yuefen=item["yuefen"][0]
nianfen=item["nianfen"][0]
list.append(pinpai)
list.append(xinghao)
list.append(yuefen)
list.append(nianfen)
with open("test.csv", "w") as csvfile:
fieldnames = ['first_name', 'last_name','username']
writer=csv.DictWriter(csvfile,fieldnames=fieldnames)
writer.writeheader()
writer.writerows(list)
return item
def close_spider(self,spider):
self.conn.close()

错误代码如下:
Traceback (most recent call last):
File "d:\programdata\anaconda3\lib\site-packages\twisted\internet\defer.py", line 653, in _runCallbacks
current.result = callback(current.result, *args, **kw)
File "D:\ueinfo\ueinfo\pipelines.py", line 36, in process_item
writer.writerows(list)
File "d:\programdata\anaconda3\lib\csv.py", line 158, in writerows
return self.writer.writerows(map(self._dict_to_list, rowdicts))
File "d:\programdata\anaconda3\lib\csv.py", line 148, in _dict_to_list
wrong_fields = rowdict.keys() - self.fieldnames
AttributeError: 'str' object has no attribute 'keys'
2017-06-13 14:56:40 [scrapy.core.engine] INFO: Closing spider (finished)
2017-06-13 14:56:40 [scrapy.statscollectors] INFO: Dumping Scrapy stats:

  • 写回答

1条回答 默认 最新

  • CSDN-Ada助手 CSDN-AI 官方账号 2022-09-09 17:33
    关注
    不知道你这个问题是否已经解决, 如果还没有解决的话:

    如果你已经解决了该问题, 非常希望你能够分享一下解决方案, 以帮助更多的人 ^-^
    评论

报告相同问题?

悬赏问题

  • ¥15 一道python难题
  • ¥15 用matlab 设计一个不动点迭代法求解非线性方程组的代码
  • ¥15 牛顿斯科特系数表表示
  • ¥15 arduino 步进电机
  • ¥20 程序进入HardFault_Handler
  • ¥15 oracle集群安装出bug
  • ¥15 关于#python#的问题:自动化测试
  • ¥20 问题请教!vue项目关于Nginx配置nonce安全策略的问题
  • ¥15 教务系统账号被盗号如何追溯设备
  • ¥20 delta降尺度方法,未来数据怎么降尺度