L_SZZXX 2022-04-02 20:07 采纳率: 0%
浏览 48

python爬取图片

import os
import bs4
import re
import time
import requests
from bs4 import BeautifulSoup

def getHTMLText(url, headers):
try:
r = requests.get(url=url, headers=headers)
r.encoding = r.apparent_encoding
soup = BeautifulSoup(r.text, "html.parser")
return soup
except:
return ""

def CreateFolder():
flag = True
while flag == 1:
file = input("请输入保存数据文件夹的名称:")
if not os.path.exists(file):
os.mkdir(file)
flag = False
else:
print('该文件已存在,请重新输入')
flag = True

# os.path.abspath(file)  获取文件夹的绝对路径
path = os.path.abspath(file) + "\\"
return path

def fillUnivList(ulist, soup):
# [0]使得获得的ul是 <class 'bs4.BeautifulSoup'> 类型
div = soup.find_all('div', 'list')[0]
for a in div('a'):
if isinstance(a, bs4.element.Tag):
hr = a.attrs['href']
href = re.findall(r'/desk/[1-9]\d{4}.htm', hr)
if bool(href) == True:
ulist.append(href[0])

return ulist

def DownloadPicture(left_url,list,path):
for right in list:
url = left_url + right
r = requests.get(url=url, timeout=10)
r.encoding = r.apparent_encoding
soup = BeautifulSoup(r.text,"html.parser")
tag = soup.find_all("p")
# 获取img标签的alt属性,给保存图片命名
name = tag[0].a.img.attrs['alt']
img_name = name + ".jpg"
# 获取图片的信息
img_src = tag[0].a.img.attrs['src']
try:
img_data = requests.get(url=img_src)
except:
continue

    img_path = path + img_name
    with open(img_path,'wb') as fp:
        fp.write(img_data.content)
    print(img_name, "   ******下载完成!")

def PageNumurl(urls):
num = int(input("请输入爬取所到的页码数:"))
for i in range(2,num+1):
u = "http://www.netbian.com/index_" + str(i) + ".htm"
urls.append(u)

return urls

if name == "main":
uinfo = []
left_url = "http://www.netbian.com"
urls = ["http://www.netbian.com/index.htm"]
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36"
}
start = time.time()
# 1.创建保存数据的文件夹
path = CreateFolder()
# 2. 确定要爬取的页面数并返回每一页的链接
PageNumurl(urls)
n = int(input("访问的起始页面:"))
for i in urls[n-1:]:
# 3.获取每一个页面的首页数据文本
soup = getHTMLText(i, headers)
# 4.访问原图所在页链接并返回图片的链接
page_list = fillUnivList(uinfo, soup)
# 5.下载原图
DownloadPicture(left_url, page_list, path)

 print("全部下载完成!", "共" + str(len(os.listdir(path))) + "张图片")

代码来源:明 总 有

如果要爬取别的网站,哪几个地方需要更改(怎样查找)
例:https://konachan.net/post

由于本人是刚入门,查了很久也没查出个所以然阿巴阿巴

  • 写回答

1条回答 默认 最新

  • 苏 凉 前端领域优质创作者 2022-04-08 10:41
    关注

    1.修改你要爬的url
    2.修改元素定位,每个网页的源码不同,你要爬取哪个网站的图片,对图片检查,利用xpath插件找到改图片的元素定位。
    3.如果你要获取多页,需要对url进行重组修改(每一页的url可能就是page上的变化不同)
    主要的就是这三点!
    欢迎来我博客主页看爬虫的相关知识点哦!

    评论

报告相同问题?

问题事件

  • 创建了问题 4月2日

悬赏问题

  • ¥15 Ios抖音直播的时候如何添加自定义图片在直播间!
  • ¥15 ssh登录页面的问题
  • ¥60 渗透一个指定银行app,拿到客户信息,需要什么级别
  • ¥50 关于在matlab上对曲柄摇杆机构上一点的运动学仿真
  • ¥15 jetson nano
  • ¥15 :app:debugCompileClasspath'.
  • ¥15 windows c++内嵌qt出现数据转换问题。
  • ¥15 stm32 串口通讯过程中的问题
  • ¥20 公众号如何实现点击超链接后自动发送文字
  • ¥15 用php隐藏类名和增加类名