砂糖橘鲨手 2024-12-30 17:04 采纳率: 0%
浏览 9

phthon爬虫代码问题


# -*- coding: utf-8 -*-
from bs4 import BeautifulSoup  # 网页解析,获取数据
import re  # 正则表达式,进行文字匹配
import urllib.request, urllib.error  # 制定URL,获取网页数据
import xlwt  # 进行excel操作

findLink = re.compile(r'<a href="(.*?)">')  # 创建正则表达式对象,标售规则   影片详情链接的规则
findImgSrc = re.compile(r'<img.*src="(.*?)"', re.S)
findTitle = re.compile(r'<span class="title">(.*)</span>')
findRating = re.compile(r'<span class="rating_num" property="v:average">(.*)</span>')
findJudge = re.compile(r'<span>(\d*)人评价</span>')
findInq = re.compile(r'<span class="inq">(.*)</span>')
findBd = re.compile(r'<p class="">(.*?)</p>', re.S)

def main():
    baseurl = "https://movie.douban.com/top250?start="  # 要爬取的网页链接
    datalist = getData(baseurl)
    savepath = "豆瓣电影Top250.xls"  # 当前目录新建XLS,存储进去
    saveData(datalist, savepath)  # 保存数据

def getData(baseurl):
    datalist = []  # 用来存储爬取的网页信息
    for i in range(0, 10):  # 调用获取页面信息的函数,10次
        url = baseurl + str(i * 25)
        html = askURL(url)  # 保存获取到的网页源码
        soup = BeautifulSoup(html, "html.parser")
        for item in soup.find_all('div', class_="item"):  # 查找符合要求的字符串
            data = []  # 保存一部电影所有信息
            item = str(item)
            link = re.findall(findLink, item)[0]  # 通过正则表达式查找
            data.append(link)
            imgSrc = re.findall(findImgSrc, item)[0]
            data.append(imgSrc)
            titles = re.findall(findTitle, item)
            if len(titles) == 2:
                ctitle = titles[0]
                data.append(ctitle)
                otitle = titles[1].replace("/", "")  # 消除转义字符
                data.append(otitle)
            else:
                data.append(titles[0])
                data.append(' ')
            rating = re.findall(findRating, item)[0]
            data.append(rating)
            judgeNum = re.findall(findJudge, item)[0]
            data.append(judgeNum)
            inq = re.findall(findInq, item)
            if len(inq) != 0:
                inq = inq[0].replace("。", "")
                data.append(inq)
            else:
                data.append(" ")
            bd = re.findall(findBd, item)[0]
            bd = re.sub('<br(\\s+)?/>(\\s+)?', "", bd)
            bd = re.sub('/', "", bd)
            data.append(bd.strip())
            datalist.append(data)
    return datalist

def askURL(url):
    head = {  # 模拟浏览器头部信息,向豆瓣服务器发送消息
        "User-Agent": "Mozilla / 5.0(Windows NT 10.0; Win64; x64) AppleWebKit / 537.36(KHTML, like Gecko) Chrome / 80.0.3987.122  Safari / 537.36"
    }
    request = urllib.request.Request(url, headers=head)
    html = ""
    try:
        response = urllib.request.urlopen(request)
        html = response.read().decode("utf-8")
    except urllib.error.URLError as e:
        if hasattr(e, "code"):
            print(e.code)
        if hasattr(e, "reason"):
            print(e.reason)
    return html

def saveData(datalist, savepath):
    print("save.......")
    book = xlwt.Workbook(encoding="utf-8", style_compression=0)  # 创建workbook对象
    sheet = book.add_sheet('豆瓣电影Top250', cell_overwrite_ok=True)  # 创建工作表
    col = ("电影详情链接", "图片链接", "影片中文名", "影片外国名", "评分", "评价数", "概况", "相关信息")
    for i in range(0, 8):
        sheet.write(0, i, col[i])  # 列名
    for i in range(len(datalist)):
        data = datalist[i]
        for j in range(0, 8):
            sheet.write(i + 1, j, data[j])  # 数据
    book.save(savepath)  # 保存

if __name__ == "__main__":  # 当程序执行时
    main()
    print("爬取完毕!")

这是我根据您爬取豆瓣前250电影的帖子用kimi修改的代码,但是运行后显示403,生成的xls文件的信息栏空白,恳求怎么解决

  • 写回答

3条回答 默认 最新

  • 码农阿豪@新空间 新星创作者: 前端开发技术领域 2024-12-30 17:19
    关注
    让阿豪来帮你解答,本回答参考chatgpt3.5编写提供,如果还有疑问可以评论或留言
    ()函数实现的功能是什么?请解释该函数的每个参数和返回值,并说明这些参数和返回值的作用。 getData()函数的功能是爬取豆瓣电影Top250的数据,包括电影的链接、海报、中文名、外文名、评分、评价人数、简介和影片详情。getData()函数接收一个参数baseurl,该参数是要爬取的网页链接。getData()函数返回datalist,其中存储了爬取的网页信息。 getData()函数中的参数和返回值说明如下: 参数baseurl:要爬取的网页链接,是一个字符串类型的参数。 返回值datalist:用来存储爬取的网页信息,是一个列表类型的返回值。 以下是getData()函数的代码实例:
    def getData(baseurl):
        datalist = []  # 用来存储爬取的网页信息
     
        for i in range(0, 10):  # 调用获取页面信息的函数,10次
            url = baseurl + str(i * 25)
            html = askURL(url)  # 保存获取到的网页源码
            soup = BeautifulSoup(html, "html.parser")
     
            for item in soup.find_all('div', class_='item'):  # 查找符合要求的字符串
                data = []  # 保存一部电影所有信息
                item = str(item)
                 
                link = re.findall(findLink, item)[0]  # 通过正则表达式查找
                data.append(link)
                 
                imgSrc = re.findall(findImgSrc, item)[0]
                data.append(imgSrc)
                 
                titles = re.findall(findTitle, item)
                if len(titles) == 2:
                    ctitle = titles[0]
                    data.append(ctitle)
                    otitle = titles[1].replace('/', '')
                    data.append(otitle)
                else:
                    data.append(titles[0])
                    data.append(' ')
                 
                rating = re.findall(findRating, item)[0]
                data.append(rating)
                 
                judgeNum = re.findall(findJudge, item)[0]
                data.append(judgeNum)
                 
                inq = re.findall(findInq, item)
                if len(inq) != 0:
                    inq = inq[0].replace("。", '')
                    data.append(inq)
                else:
                    data.append(' ')
                 
                bd = re.findall(findBd, item)[0]
                bd = re.sub('<br(\s+)?/>(\s+)?', '', bd)
                bd = re.sub('/', '', bd)
                data.append(bd.strip())
                 
                datalist.append(data)
     
        return datalist
    

    以上是getData()函数的实现以及参数和返回值的解释。

    评论

报告相同问题?

问题事件

  • 创建了问题 12月30日