这是什么意思,怎么改
关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率

已采纳
一个Python爬虫问题
收起
- 写回答
- 好问题 0 提建议
- 关注问题
微信扫一扫
点击复制链接分享
- 邀请回答
- 编辑 收藏 删除 结题
- 收藏 举报
6条回答 默认 最新
- 关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率
m0_58995603 2021-07-05 23:03关注请求头里加上hexin-v,
本回答被题主选为最佳回答 , 对您是否有帮助呢? 本回答被专家选为最佳回答 , 对您是否有帮助呢? 本回答被题主和专家选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏举报微信扫一扫
点击复制链接分享
评论按下Enter换行,Ctrl+Enter发表内容
报告相同问题?
提交
- 2022-04-29 11:12回答 1 已采纳 我给你改了一下,你对比看看吧: from bs4 import BeautifulSoup import pandas as pd import requests def crawer_travel
- 2023-02-17 09:21回答 5 已采纳 你的原代码拷贝过来执行的话,name返回的是None,也就是说你的选择器没有找到你期望的内容,调试代码修改如下: 注意看打印输出的内容: 所以检查下css选择器的代码是否正确吧 有帮助的话,请点采
- 2022-07-20 16:54回答 3 已采纳 首先,你这里写错了divs = query(".cm-content-box").items()
- 2018-03-25 07:34讲诉python爬虫的20个案例 。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。
- 2022-08-15 09:11回答 1 已采纳 应该是css选择器里面的规则不够明确,可改成href = selectors.css('div.container div div div ul li a::attr(href)').getall()
- 2022-10-09 11:41回答 2 已采纳
- 2022-03-18 12:30回答 2 已采纳 driver.swith_to.window(driver.window_handles[1]),函数名写错了,不是swith是switch,少写了个c,改成:driver.switch_to.win
- 2018-12-13 14:2381个Python爬虫源代码,内容包含新闻、视频、中介、招聘、图片资源等网站的爬虫资源
- 2022-08-23 18:15回答 1 已采纳 复制我的代码试试: import requests from bs4 import BeautifulSoup def get_page(link): headers = {'User-Ag
- 2022-01-05 16:02回答 3 已采纳 综合热门吗,可以的,找到它的抓包,应该是没有问题的
- 2022-06-24 19:43回答 1 已采纳 其实有的,但是这个网站应该是为了懒加载把url用base64密了一下,然后再动态加载, 其实我下面发的这个就是url 是base64后的url 解码后就是https://s1.aigei.com/
- 2022-06-21 22:07练习时长两年半的Programmer的博客 比如我要获取豆瓣电影 Top250 榜单,如果不用爬虫,我们要先在浏览器上输入豆瓣电影的 URL ,客户端(浏览器)通过解析查到豆瓣电影网页的服务器的 IP 地址,然后与它建立连接,浏览器再创造一个 HTTP 请求发送给...
- 2021-10-23 15:47纸照片的博客 另外,需要强调的是,网络上并不是什么东西都可以爬,针对这个问题,我国有着一套完备的法律。爬了不该爬的内容,比如大量个人信息,那可以快速实现“从入门到入狱”。 2. 了解网页 网页一般由三部分组成,分别是 ...
- 2020-06-12 15:39在本项目中,"python爬虫数据可视化分析大作业.zip" 是一个综合性的学习资源,主要涉及了Python编程中的两个重要领域:网络爬虫(Web Scraping)和数据可视化(Data Visualization)。通过这个作业,我们可以深入...
- 2024-04-01 13:30雪碧有白泡泡的博客 通过本文的讲解,相信读者已经对Python爬虫有了较为全面的认识。爬虫技能在数据分析、自然语言处理等领域具有广泛的应用,希望读者能够动手实践,不断提高自己的技能水平。同时,请注意合法合规地进行爬虫,遵守相关...
- 没有解决我的问题, 去提问