???????^O^~ 2022-05-29 23:21 采纳率: 88.9%
浏览 145
已结题

爬网易新闻的评论,代码如下,遇到问题KeyError

from bs4 import BeautifulSoup
import requests
import json

headers={'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.4951.64 Safari/537.36 Edg/101.0.1210.53'}
commentURL='https://comment.tie.163.com/H8DOPGM90519DTSV.html'

def creatURL(commentURL,offset,limit):
    s1='https://gw.m.163.com/commons-user-main/api/v1/commons/user/pc/getUserByCookie?isbtn=false&trace_id=IuKWAHFuVvX1653835134118'
    s2='/comments/newList?offset='
    name=commentURL.split('/')[-1].split('.')[0]
    u=s1+str(name)+s2+str(offset)+'&limit='+str(limit)
    return u
res=requests.get(url=creatURL(commentURL,1,40),headers=headers).content
data=json.loads(res.decode())

for key in data['comments'].keys():
    print(data['comments'][key]['comment'])

爬取网易新闻评论页的评论,遇到问题for key in data['comments'].keys():
KeyError: 'comments',是不是长度有问题?url=creatURL(commentURL,1,40)是不是说获取40个评论?这个一页上是没有40条评论的,但是总的评论数又超过了40个
网页地址是https://comment.tie.163.com/H8DOPGM90519DTSV.html

  • 写回答

4条回答 默认 最新

  • 法学僧转行程序猿 2022-05-30 12:14
    关注

    你这个问题我没找到解决办法,但是你如果仅仅是为了获取评论数据,按照我的方法可以绕过你的问题取获取,我觉得这样简单的多,我这里测试过没发现报错

    import requests
    import re
    import time
    # 看到最新评论一共有五页,翻页关键参数在offset
    page=0
    s=1
    for page in range(1,5):
        print(f'-------------开始采集第{s}页数据----------------')
        # 开发者工具抓包找到对应数据所在链接
        url=f'https://comment.api.163.com/api/v1/products/a2869674571f77b5a0867c3d71db5856/threads/H8DOPGM90519DTSV/comments/newList?ibc=newspc&limit=30&showLevelThreshold=72&headLimit=1&tailLimit=2&offset={page}&callback=jsonp_1653882863959&_=1653882863960'
        data={}
        headers={
            'Referer': 'https://comment.tie.163.com/',
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.4951.64 Safari/537.36 Edg/101.0.1210.53'
        }
        resp=requests.get(url,headers=headers)
        # print(resp.text)
        commentId_list=re.findall('"commentId":(.*?),',resp.text)  # 用户id列表
        content_list=re.findall('"content":"(.*?)",',resp.text)  # 用户评论列表
        # print(commentId_list)
        # print(content_list)
        n=1
        for commentId in commentId_list:
            print(commentId,content_list[n-1])
            time.sleep(0.5)
            n+=1
        s+=1
        page+=30
    
    
    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(3条)

报告相同问题?

问题事件

  • 系统已结题 6月7日
  • 已采纳回答 5月30日
  • 创建了问题 5月29日

悬赏问题

  • ¥15 使用ue5插件narrative时如何切换关卡也保存叙事任务记录
  • ¥20 软件测试决策法疑问求解答
  • ¥15 win11 23H2删除推荐的项目,支持注册表等
  • ¥15 matlab 用yalmip搭建模型,cplex求解,线性化处理的方法
  • ¥15 qt6.6.3 基于百度云的语音识别 不会改
  • ¥15 关于#目标检测#的问题:大概就是类似后台自动检测某下架商品的库存,在他监测到该商品上架并且可以购买的瞬间点击立即购买下单
  • ¥15 神经网络怎么把隐含层变量融合到损失函数中?
  • ¥15 lingo18勾选global solver求解使用的算法
  • ¥15 全部备份安卓app数据包括密码,可以复制到另一手机上运行
  • ¥20 测距传感器数据手册i2c