scrapy框架+formdata+ajax爬取及翻页问题

问题描述:使用scrapy框架爬取ajax网页,以中国地震台网——历史查询为例,我想爬取某个时间段内所有的数据,但是我的代码并不能实现,找了一些相关问题参考,最终代码如下,未能实现,请问大哥大佬们能支个招吗。。。(scrapy框架,已测试过代码其他配置等没有问题)

#spider文件:

# -*- coding: utf-8 -*-
import scrapy
from EarthquakeScrapy.items import EarthquakescrapyItem


class TestScrapy(scrapy.Spider):
    name = 'test'  # 爬虫的名字
    allowed_domains = ['ceic.ac.cn/search']  
    start_urls = 'http://www.ceic.ac.cn/ajax/search?page=&&start=&&end=&&jingdu1=&&jingdu2=&&weidu1=&&weidu2=&&height1=&&height2=&&zhenji1=&&zhenji2='
    # 爬取页码循环次数,一共57页
    all_page = 3

    def start_requests(self):
        # 遍历各页
        for i in range(1, self.all_page + 1):  # 从前端获取的页面[1,57+1),循环1到57页
            yield scrapy.FormRequest(self.start_urls,
                                     formdata={'page': 'i', 'start': '2019-03-25','end': '2020-03-25',
                                               'jingdu1': '', 'jingdu2': '','weidu1': '', 'weidu2': '',
                                               'height1': '','height2': '', 'zhenji1': '', 'zhenji2': '','callback': ''},
                                     callback=self.parse,
                                     dont_filter=True)  # 请求对应的内容

    def parse(self, response):
        result = eval(response.body.decode('utf-8'))
        records = result['shuju']
        item = EarthquakescrapyItem()
        print("**")#测试用
        for record in records:
            item['level'] = record['M']
            item['time'] = record['O_TIME']
            item['longitude'] = record['EPI_LON']
            item['latitude'] = record['EPI_LAT']
            item['depth'] = record['EPI_DEPTH']
            item['address'] = record['LOCATION_C']
            print(record['M'])#测试爬取数据情况
            # yield item

1个回答

def parse(self, response):
result = eval(response.body.decode('utf-8'))

兄弟,你打印一下result看看是什么东西

qq_43656607
天不绝我 不是很明白。创建一个scrapy项目,这个项目可以创建很多个spider。每个spider爬取的地址和内容都是独立的。同时运行就行了
5 个月之前 回复
weixin_46373697
方兔叽 大哥,这个问题已经解决了,方法意思差不多,还想再问一个问题,一个scrapy项目有多个爬虫文件怎么运行,我运行的时候只有一个爬虫文件被执行了。。。
5 个月之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
立即提问