def parse_stock(self, response):
stock_item = ShishihqItem()
data_list1 = response.xpath("/html/body/div[@class='area']/div[@class='header']/div[@class='stock_info']/table/tr/td[2]/div[@class='stock_detail']/table/tr[1]/td[1]/span/strong").extract_first()
stock_item['收盘价'] =data_list1
print(stock_item)!
图片说明
也就是上图中的strong这一项中的12.91,为什么我把strong这一项都爬下来了,发现class="cRed">13.06<没有了,这是什么防爬虫机制
爬出的结果是:图片说明
用scrapy爬取网易财经股票的实时数据,出现爬取的数据丢失
- 写回答
- 好问题 0 提建议
- 追加酬金
- 关注问题
- 邀请回答
-
1条回答 默认 最新
悬赏问题
- ¥30 这是哪个作者做的宝宝起名网站
- ¥60 版本过低apk如何修改可以兼容新的安卓系统
- ¥25 由IPR导致的DRIVER_POWER_STATE_FAILURE蓝屏
- ¥50 有数据,怎么建立模型求影响全要素生产率的因素
- ¥50 有数据,怎么用matlab求全要素生产率
- ¥15 TI的insta-spin例程
- ¥15 完成下列问题完成下列问题
- ¥15 C#算法问题, 不知道怎么处理这个数据的转换
- ¥15 YoloV5 第三方库的版本对照问题
- ¥15 请完成下列相关问题!