# 分析: import requests from lxml import etree # 图片地址: url = 'https://sc.chinaz.com/tupian/meinvxiezhen.html' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36' } # 发送请求获取响应 res = requests.get(url=url, headers=headers) html = etree.HTML(res.text) # 图片和地址的xpath title = html.xpath('//div[@id="container"]/div[*]/div/a/img/@alt') img_url = html.xpath('//*[@id="container"]/div[*]/div/a/img/@alt') # print(title) for i in title: i2 = 'http:' + i print(i2) # 标题xpath //*[@id="container"]/div[*]/div/a/img/@alt # 地址xpath //*[@id="container"]/div[*]/div/a/img/@src
关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率

已采纳
爬取网站的title名称名字,为什么遍历打印不出来.是加密了吗?求问
收起
- 写回答
- 好问题 0 提建议
- 关注问题
微信扫一扫
点击复制链接分享
- 邀请回答
- 编辑 收藏 删除 结题
- 收藏 举报
1条回答 默认 最新
- 关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率
江天暮雪丨 2021-05-07 00:54关注我运行了你的代码,并没有打印不出来的问题,只是打印出来的是乱码,在获取到响应后更改字符编码为 utf-8即可正常显示。
... # 发送请求获取响应 res = requests.get(url=url, headers=headers) res.encoding = 'utf-8' html = etree.HTML(res.text) ...
本回答被题主选为最佳回答 , 对您是否有帮助呢? 本回答被专家选为最佳回答 , 对您是否有帮助呢? 本回答被题主和专家选为最佳回答 , 对您是否有帮助呢?解决 1无用举报微信扫一扫
点击复制链接分享
编辑预览轻敲空格完成输入- 显示为
- 卡片
- 标题
- 链接
评论按下Enter换行,Ctrl+Enter发表内容关注码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率
strivepan 2021-05-07 04:11好的,谢谢,忘记编码和解码了。
赞回复编辑预览轻敲空格完成输入- 显示为
- 卡片
- 标题
- 链接
回复按下Enter换行,Ctrl+Enter发表内容
编辑
预览

轻敲空格完成输入
- 显示为
- 卡片
- 标题
- 链接
报告相同问题?
提交
- 2020-12-07 21:23weixin_39553753的博客 周末,永恒君和一位B站网友讨论交流了一下关于web scraper爬取网页的问题。今天来和各位分享一下,希望能给大家有帮助。需求1、爬取的网站地址:...
- 2021-01-14 01:41weixin_39655981的博客 本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理本文来自腾讯云 作者:龙哥一、前言python爬虫事最方便最快捷的,今天给大家带来爬取网页,看...
- 2023-01-09 09:09Python脚本爬取Boss直聘JD信息是一种常见的网络数据抓取技术,主要应用于数据分析、市场研究和招聘领域。Boss直聘作为一个在线招聘平台,提供了大量的职位信息,通过编写Python爬虫,我们可以自动化地获取这些信息,...
- 2020-12-30 03:33彷徨的牛的博客 本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理本文来自腾讯云 作者:龙哥一、前言python爬虫事最方便最快捷的,今天给大家带来爬取网页,看...
- 2024-03-17 12:08Vermouth-1的博客 Python爬取网站数据 前言 什么是爬虫? 通过编写程序,模拟浏览器上网,然后让其去互联网上抓取数据的过程 爬虫合法还是违法? 在法律上是不被禁止的 但是也有违法风险 爬虫带来的风险可以体现在如下2方面 爬虫...
- 2020-12-29 05:5849.99%的博客 本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理 想要学习Python?有问题得不到第一时间解决?来看看这里,满足你的需求,资料都已经上传至...
- 2024-06-22 08:50当为大鹏的博客 本爬虫代码能够爬取京东商品的评论,并将获取的评论信息保存到Navicat数据库中。下面是具体的实现方法。
- 2024-05-30 15:31无敌の星仔的博客 学会如何使用爬虫去爬取小说,可以作为会了python和requests之后的练手项目
- 2023-02-10 08:23本资料包将带你深入理解Python爬虫的基础知识,帮助你掌握定向网络数据爬取和网页解析的核心技能。 首先,我们要了解Python爬虫的基础——HTTP/HTTPS协议。HTTP是互联网上应用最广泛的数据通信协议,HTTPS则是其...
- 2020-12-12 02:31weixin_39550410的博客 起因一切的一切都要从一个...看到对于安卓,我实在没实力在java层面爬取出数据,于是我开始转战python,谁知道这才一个大坑的开始。知识1、CASCAS是Central Authentication Service的缩写,中央认证服务,一种独立...
- 2020-11-29 19:33weixin_39867212的博客 项目演示与分析使用python的request库和字体反爬文件,通过替换来实现爬取,最后保存 为excel文件演示:分析:1.首先 直接从58爬取数据可以很明显的看到所有的数字都被替换成了乱码2.我们打开页面右键...
- 2024-11-28 05:17才华是浅浅的耐心的博客 本文将为你详细介绍一套Python 实现 的小红书爬虫思路,包括在抓包时发现的接口信息、必需的加密参数生成、Cookies 的获取和切换、数据的抓取与持久化、图片下载等环节。 最终,你可以通过该示例一次性爬取多个用户...
- 2020-12-16 18:01weixin_39741459的博客 data = requests.get(all_links[title][0],headers = header) soup = BeautifulSoup(wb_data.content) article = soup.select(".articalContent.newfont_family") #有些文章被加密,获取不到内容,此时article为空,...
- 2022-09-03 01:33星空~龙的博客 爬取某音乐网站
- 2024-04-21 00:312401_84009192的博客 网站是静态网站,没有加密,可以直接爬取整体思路1、先在列表页面获取每张壁纸的详情地址2、在壁纸详情页面获取壁纸真实高清url地址3、保存壁纸代码实现模拟浏览器请求网页,获取网页数据def get_html(html_url):...
- 2020-07-05 16:09KeithPro的博客 so结合兴趣的学习才能事半功倍,更加努力专心,apparently本次任务是在视频网站爬取国产爱情动作片,地址不放(狗头保命)只记录过程。 环境 &依赖 Win10 64bit IDE:Pycharm Python 3.8 Python-site-...
- 2020-12-07 05:36weixin_39742392的博客 另一部分主要的技术内容是风控系统的构建,这部分主要使用python。作者本人主要从事数据分析、风控建模等工作,团队大部分成员和作者之前都有从事手机游戏数据平台搭建、数据分析、BI等方面经历。对...
- 2025-03-17 14:15才华是浅浅的耐心的博客 在数据分析和网络爬虫的应用场景中,我们经常需要获取社交媒体平台的数据,例如 TikTok。本篇文章介绍如何使用 Python 爬取 TikTok 用户搜索数据,并解析其返回的数据。
- 没有解决我的问题, 去提问
联系我们(工作时间:8:30-22:00)
400-660-0108kefu@csdn.net在线客服
- 京ICP备19004658号
- 经营性网站备案信息
公安备案号11010502030143
- 营业执照
- 北京互联网违法和不良信息举报中心
- 家长监护
- 中国互联网举报中心
- 网络110报警服务
- Chrome商店下载
- 账号管理规范
- 版权与免责声明
- 版权申诉
- 出版物许可证
- ©1999-2025北京创新乐知网络技术有限公司