cab_bage 2021-08-17 15:13 采纳率: 57.1%
浏览 479
已结题

爬虫爬网站报错404是咋回事

headers={
    # 'Referer': 'http://www.yhdm.so/'
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.131 Safari/537.36 Edg/92.0.902.73'
    # ,'Host': 'p.hnnzwhyy.com'
    # ,'Accept-Encoding':'gzip, deflate'
}
f=open('pre_urlss','r')
url=f.readline()
print(url)
print(requests.get(url,headers=headers))
f.close()

img
输出的url没问题可以访问,为什么爬虫就报404,请求头都试过了还是报错(cookie也试过没用)

  • 写回答

2条回答 默认 最新

  • 忍气吞声埋头苦干 2021-08-17 15:52
    关注

    所以方便给个url吗?

    评论

报告相同问题?

问题事件

  • 已结题 (查看结题原因) 8月17日
  • 创建了问题 8月17日

悬赏问题

  • ¥20 python忆阻器数字识别
  • ¥15 无法输出helloworld
  • ¥15 高通uboot 打印ubi init err 22
  • ¥20 PDF元数据中的XMP媒体管理属性
  • ¥15 R语言中lasso回归报错
  • ¥15 网站突然不能访问了,上午还好好的
  • ¥15 有没有dl可以帮弄”我去图书馆”秒选道具和积分
  • ¥15 semrush,SEO,内嵌网站,api
  • ¥15 Stata:为什么reghdfe后的因变量没有被发现识别啊
  • ¥15 振荡电路,ADS仿真