m0_64428000 2022-08-23 18:15 采纳率: 33.3%
浏览 16
已结题

python爬虫只能获得一条数据

问题遇到的现象和发生背景

今天利用python爬虎扑步行街时,想爬取一整面的数据,却发现只能爬取到一条数据不知道问题出在哪里

问题相关代码,请勿粘贴截图

from pymongo import MongoClient
import requests
import datetime
from bs4 import BeautifulSoup

def get_page(link):
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) '
'Chrome/104.0.5112.102 Safari/537.36 Edg/104.0.1293.63'}
r = requests.get(link, headers=headers)
print(r.status_code)
html = r.content # 解封装
html = html.decode('UTF_8') # 解码
soup = BeautifulSoup(html, 'lxml')
return soup
def get_data(post_list):
data_list = []
for post in post_list:
url = post.find('div', class_='post-title').a['href']
url = url+'https://bbs.hupu.com/bxj'
title = post.find('div', class_='post-title').a.text.strip()
reply_view = post.find('div', class_='post-datum').text.strip()
reply = reply_view.split('/')[0].strip()
view = reply_view.split('/')[1].strip()
author = post.find('div', class_='post-auth').a.text.strip()
time = post.find('div', class_='post-time').text.strip()
data_list.append([url, title, reply, view, author, time])
return data_list

link = 'https://bbs.hupu.com/bxj'

soup = get_page(link)
post_all = soup.find('ul')
post_list = soup.find_all('li', class_="bbs-sl-web-post-body")
data_list = get_data(post_list)
for each in data_list:
print(each)

运行结果及报错内容

D:\anaconda\envs\pythonProject\python.exe D:/python__demo/pa_chong/data_create.py
200
['/55233916.htmlhttps://bbs.hupu.com/bxj', '现在中国境内最濒危的动物是什么?', '28', '17747', '浮云依旧', '08-23 17:42']

进程已结束,退出代码0

我的解答思路和尝试过的方法

曾百度查过他人的代码
发现在
post_all = soup.find('ul')
post_list = soup.find_all('li', class_="bbs-sl-web-post-body")
引号里的内容有不同但依然不能解决

  • 写回答

1条回答 默认 最新

  • honestman_ 2022-08-23 18:25
    关注

    复制我的代码试试:

    import requests
    from bs4 import BeautifulSoup
    
    def get_page(link):
        headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) '
        'Chrome/104.0.5112.102 Safari/537.36 Edg/104.0.1293.63'}
        r = requests.get(link, headers=headers)
        print(r.status_code)
        html = r.content # 解封装
        html = html.decode('UTF_8') # 解码
        soup = BeautifulSoup(html, 'lxml')
        return soup
    def get_data(post_list):
        data_list = []
        for post in post_list:
            url = post.find('div', class_='post-title').a['href']
            url = url+'https://bbs.hupu.com/bxj'
            title = post.find('div', class_='post-title').a.text.strip()
            reply_view = post.find('div', class_='post-datum').text.strip()
            reply = reply_view.split('/')[0].strip()
            view = reply_view.split('/')[1].strip()
            author = post.find('div', class_='post-auth').a.text.strip()
            time = post.find('div', class_='post-time').text.strip()
            data_list.append([url, title, reply, view, author, time])
        return data_list
    
    link = 'https://bbs.hupu.com/bxj'
    soup = get_page(link)
    post_all = soup.find('ul')
    post_list = soup.find_all('li', class_="bbs-sl-web-post-body")
    data_list = get_data(post_list)
    for each in data_list:
        print(each)
    
    
    
    
    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论

报告相同问题?

问题事件

  • 系统已结题 8月31日
  • 已采纳回答 8月23日
  • 创建了问题 8月23日

悬赏问题

  • ¥15 求指导ADS低噪放设计
  • ¥15 CARSIM前车变道设置
  • ¥50 三种调度算法报错 有实例
  • ¥15 关于#python#的问题,请各位专家解答!
  • ¥200 询问:python实现大地主题正反算的程序设计,有偿
  • ¥15 smptlib使用465端口发送邮件失败
  • ¥200 总是报错,能帮助用python实现程序实现高斯正反算吗?有偿
  • ¥15 对于squad数据集的基于bert模型的微调
  • ¥15 为什么我运行这个网络会出现以下报错?CRNN神经网络
  • ¥20 steam下载游戏占用内存