如图所示
状态码418是什么啊?
关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率
已采纳
为什么我用Python抓不到豆瓣电影的信息?
收起
- 写回答
- 好问题 1 提建议
- 关注问题
- 微信扫一扫点击复制链接分享
- 邀请回答
- 编辑 收藏 删除 结题
- 收藏 举报
2条回答 默认 最新
- 关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率
threenewbee 2019-11-27 17:09关注加上user-agent看看
你被服务器判断为非法爬虫而不是真实请求了。本回答被题主选为最佳回答 , 对您是否有帮助呢? 本回答被专家选为最佳回答 , 对您是否有帮助呢? 本回答被题主和专家选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏举报微信扫一扫点击复制链接分享编辑预览轻敲空格完成输入- 显示为
- 卡片
- 标题
- 链接
评论按下Enter换行,Ctrl+Enter发表内容
编辑
预览
轻敲空格完成输入
- 显示为
- 卡片
- 标题
- 链接
报告相同问题?
提交
- 2021-06-04 00:30回答 4 已采纳 你选的是第一个span标签。 each.a.span.next_sibling.text
- 2022-01-02 08:04回答 3 已采纳 找到问题了 interval_id 后面100:90冒号后多了一个空格
- 2021-08-10 08:43回答 2 已采纳 Process(target = parse_url,args = url) 这里的args 参数需要是一个元组形式,可以写成args=(url,)
- 2020-09-18 07:53本案例通过Python实现了一个具体的爬虫项目——爬取豆瓣电影信息。该项目不仅能帮助我们了解爬虫的工作原理,同时也能深入学习Python编程语言在实际应用中的表现。 ### 爬虫技术概述 爬虫,俗称网络蜘蛛(Web ...
- 2019-10-18 00:20回答 3 已采纳 爬虫内容解析比较方便的不是正则而是 xpath ,语法也很容易,建议试试这种: ``` from lxml import etree # 解析页面的模块 html = etree.HTML
- 2022-02-20 03:09回答 1 已采纳 你好,可以点击下你的payload选项卡,应该就能看到参数了。
- 2021-11-14 06:52回答 1 已采纳 这样就可以了 import requests import csv r_header = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win
- 2021-10-02 20:17标题中的“doubanmovie_豆瓣电影_电影信息_scrapy_python爬虫”表明我们要讨论的是一个使用Python的Scrapy框架来爬取豆瓣电影Top250列表中的电影信息的项目。这个项目的主要目标是抓取电影的基本数据,比如标题、...
- 2022-05-27 17:24回答 1 已采纳 import pandas as pd df = pd.read_excel('豆瓣电影排行榜.xlsx') lis1 = df['导演'].tolist() lis2 = df['影名'].tol
- 2022-08-24 08:57回答 2 已采纳 点这个试试:
- 2021-10-04 16:13回答 3 已采纳 返回的值不符合json规范,先返回文本,打印内容看看,再做处理。
- 2020-12-21 14:10Python爬取豆瓣top250电影数据,并导入MySQL,写入excel 具体数据:电影链接、电影名称、电影评分、评分人数、电影概括 import pymysql import xlwt from bs4 import BeautifulSoup from urllib import request ...
- 2024-08-04 09:55左手の明天的博客 豆瓣是一个电影资讯网站,用户可以在网站上查找电影信息、评论电影等。我们希望通过爬虫程序获取豆瓣电影的名称、评分和简介等信息,以便进行数据分析或制作推荐系统。
- 2024-02-27 12:22本项目使用Python Flask框架搭建,采用爬取豆瓣官网的方式,获取并处理电影信息,返回的Json数据,便于小程序使用。 主要实现的功能有获取电影列表,获取电影信息、图片、演员等,以及获取影人信息、图片、作品,...
- 2024-12-17 03:05远方2.0的博客 通过本文的学习,你已掌握了如何使用 Python 和 BeautifulSoup 爬取豆瓣电影 Top 250 榜单。这不仅帮助你加深了对网页爬虫的理解,也为进一步数据分析和项目开发打下了基础。技术将该榜单的所有电影标题抓取下来,并...
- 没有解决我的问题, 去提问
联系我们(工作时间:8:30-22:00)
400-660-0108kefu@csdn.net在线客服
- 京ICP备19004658号
- 经营性网站备案信息
- 公安备案号11010502030143
- 营业执照
- 北京互联网违法和不良信息举报中心
- 家长监护
- 中国互联网举报中心
- 网络110报警服务
- Chrome商店下载
- 账号管理规范
- 版权与免责声明
- 版权申诉
- 出版物许可证
- ©1999-2025北京创新乐知网络技术有限公司