lyxleo 2019-07-11 12:24 采纳率: 0%
浏览 346
已采纳

这爬虫怎么了?为什么老是报错?

import urllib.request
from bs4 import BeautifulSoup
while True:
    web_road=input("输入网络的网址:")
    response=urllib.request.urlopen(str(web_road))
    html=response.read()
    soup=BeautifulSoup(html,features="html.parser")
    print("以下是处理后的源码")
    print(soup)

response=urllib.request.urlopen(str(web_road))

总是说:ValueError: unknown url type: 'www.baidu.com'
这是什么意思?如何解决,求大神帮忙!感谢!

  • 写回答

3条回答 默认 最新

  • 吃鸡王者 2019-07-11 13:57
    关注

    应该是http://www.baidu.com 要加协议类型

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(2条)

报告相同问题?

悬赏问题

  • ¥15 关于#python#的问题:求帮写python代码
  • ¥20 MATLAB画图图形出现上下震荡的线条
  • ¥15 LiBeAs的带隙等于0.997eV,计算阴离子的N和P
  • ¥15 关于#windows#的问题:怎么用WIN 11系统的电脑 克隆WIN NT3.51-4.0系统的硬盘
  • ¥15 来真人,不要ai!matlab有关常微分方程的问题求解决,
  • ¥15 perl MISA分析p3_in脚本出错
  • ¥15 k8s部署jupyterlab,jupyterlab保存不了文件
  • ¥15 ubuntu虚拟机打包apk错误
  • ¥199 rust编程架构设计的方案 有偿
  • ¥15 回答4f系统的像差计算