使用网络搜索或许更快,我是学软件的,导师要求做出自动答题py,栓q辣!

关注【相关推荐】
我们将fiddle抓带的数据复制到,http://json.cn转换一下,观察特征 筛选数据


看上两图,可以看出comments中包含了多个object每个object中有就是每个用户的数据,知道这些代码就好写了
def parser_comments(parser_comments):
data=[]
print("*"*100)
print("解析评论数据")
print("*" * 100)
comment=json.loads(parser_comments)
for item in comment["comments"]:
dic={}
dic["cid"]=item["cid"] #cid
dic["aweme_id"]=item["aweme_id"] #aweme_id可能是视频id
dic["nickname"]=item["user"]["nickname"] #评论者名字
dic["gender"]=item["user"]["gender"] #评论者性别
dic["unique_id"]=item["user"]["unique_id"] #评论者抖音号
dic["signature"]=item["user"]["signature"] #评论者主页简介
dic["birthday"]=item["user"]["birthday"] #评论者生日
dic["region"]=item["user"]["region"] # 评论者所属地区
dic["custom_verify"]=item["user"]["custom_verify"] #评论者的认证
dic["sec_uid"]=item["user"]["sec_uid"] #可通过此拼接url访问得到评论者主页json数据
dic["text"]=item["text"] #评论内容
dic["time"]=item["create_time"] #评论时间戳
dic["digg_count"]=item["digg_count"] #评论获赞数
dic["reply_comment_total"]=item["reply_comment_total"]#评论回复数
data.append(dic)
return data
def save_data(data,path):
header = list(data[0].keys()) # 数据列名
with open(path, 'a', newline='',encoding="utf-8") as f:
writer = csv.DictWriter(f,fieldnames=header)
writer.writerows(data) # 写入数据
def response(flow):
try:
if "aweme.snssdk.com/aweme/v2/comment/list/?" in flow.request.url:
data=parser_comments(flow.response.text)
save_data(data,"comment.csv")
except:
print("---"*100,"错误","--"*100)
pass
三个函数parsercomments是用来解析数据的讲述转换为json格式一个一个解析处理 savedata是保存数据的函数 response(flow)这个函数是用于和mitmdump交互的,这个函数必须这样命名