深海鲛鲨 2019-03-05 17:39 采纳率: 0%
浏览 1882
已结题

用scrapy爬取网易财经股票的实时数据,出现爬取的数据丢失

def parse_stock(self, response):
stock_item = ShishihqItem()
data_list1 = response.xpath("/html/body/div[@class='area']/div[@class='header']/div[@class='stock_info']/table/tr/td[2]/div[@class='stock_detail']/table/tr[1]/td[1]/span/strong").extract_first()
stock_item['收盘价'] =data_list1
print(stock_item)!
图片说明
也就是上图中的strong这一项中的12.91,为什么我把strong这一项都爬下来了,发现class="cRed">13.06<没有了,这是什么防爬虫机制
爬出的结果是:图片说明

  • 写回答

1条回答 默认 最新

  • devmiao 2019-03-05 23:28
    关注
    评论

报告相同问题?