是白白 2021-10-11 13:33 采纳率: 100%
浏览 77
已结题

怎么把爬取下来的数据输出为CSV文化呀?自己弄老是不成功

爬取拉勾网源代码如下

from  selenium import webdriver
import requests
from lxml import etree
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.common.by import By
import time
import re

class lagouSpitder(object):
    driver_path=r'C:\Users\哥斯拉\AppData\Local\Google\Chrome\Application\chromedriver.exe'
    def __init__(self):
        self.driver=webdriver.Chrome(executable_path=lagouSpitder.driver_path)
        self.url='https://www.lagou.com/jobs/list_python/p-city_0?&cl=false&fromSearch=true&labelWords=&suginput='
        self.positions=[]

    def run(self):  #主页面
        self.driver.get(self.url)
        while True:
            source = self.driver.page_source  # source页面来源  先获取一页
            WebDriverWait(driver=self.driver,timeout=10).until(
                EC.presence_of_element_located((By.XPATH,'//span[@action="next"]'))
            )  #等待按钮加载出来
            self.parse_list_page(source)  # 解析完获取的一页之后,去点击下一页
            next_btn = self.driver.find_element_by_xpath('//span[@action="next"]')
            if "pager_next pager_next_disabled" in next_btn.get_attribute('class'):  # 如果class等于最后一页则停止,否则继续点击
                break
            else:
                next_btn.click()
                time.sleep(1)

    def parse_list_page(self,source):  #获取职位详情页url
        html=etree.HTML(source)
        links=html.xpath('//a[@class="position_link"]/@href')
        for link in links:
            self.request_detall_page(link)
            time.sleep(2)

    def request_detall_page(self,url):  #去请求细节页面 这里面得url等于self.request_detall_page里面传递得link
        # self.driver.get(url)
        self.driver.execute_script("window.open('%s')"%url)  #新打开一个职位页面
        self.driver.switch_to_window(self.driver.window_handles[1]) #切换到当前页面
        source=self.driver.page_source  #source页面来源
        self.pares_detail_page(source)   #解析页面
        self.driver.close()   #解析完关闭页面
        self.driver.switch_to_window(self.driver.window_handles[0])

    def pares_detail_page(self,source): #获取职位细节信息
        html=etree.HTML(source)
        Position_name=html.xpath('//span[@class="position-head-wrap-position-name"]/text()')[0] #职位名字
        salary=html.xpath('//span[@class="salary"]/text()')[0] #薪水
        Position_the_temptation=html.xpath('//dd[@class="job-advantage"]/p/text()')[0]   #职位诱惑
        Job_description=html.xpath('//div[@class="job-detail"]//text()')  #职位详情
        # Job_description=re.sub(r'[\s/]','',Job_description)
        desc=''.join(html.xpath('//div[@class="job-detail"]//text()')).strip()   #拼接
        work_address=html.xpath('//div[@class="work_addr"]//text()')[3] #工作地址
        CompanyName = html.xpath('//h3[@class="fl"]/em/text()')[0]  # 公司名字
        Company_Basic_Information=html.xpath('//li/h4/text()')  #公司基本信息

        position={
            '职位名字':Position_name,
            '薪水':salary,
            '职位诱惑':Position_the_temptation,
            '职位详情':Job_description,
            '工作地址':work_address,
            '公司名字': CompanyName,
            '公司基本信息':Company_Basic_Information,
        }
        self.positions.append(position)
        print(position)
        print('='*40)







if __name__ == '__main__':
    spider=lagouSpitder()   #爬虫spider
    spider.run()



麻烦帮忙看下怎么保存为CSV文件,完善一下代码,本人不是很懂
麻烦了

  • 写回答

2条回答 默认 最新

  • qq_42674918 2021-10-11 15:13
    关注
    
    import pandas as pd
    r = pd.DataFrame(positions, columns=['职位名字', '薪水', '职位诱惑', '职位详情', '工作地址', '公司名字', '公司基本信息'])
    r.to_csv(r"csv路径", index=0)
    
    
    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(1条)

报告相同问题?

问题事件

  • 系统已结题 10月19日
  • 已采纳回答 10月11日
  • 创建了问题 10月11日

悬赏问题

  • ¥15 (希望可以解决问题)ma和mb文件无法正常打开,打开后是空白,但是有正常内存占用,但可以在打开Maya应用程序后打开场景ma和mb格式。
  • ¥20 ML307A在使用AT命令连接EMQX平台的MQTT时被拒绝
  • ¥20 腾讯企业邮箱邮件可以恢复么
  • ¥15 有人知道怎么将自己的迁移策略布到edgecloudsim上使用吗?
  • ¥15 错误 LNK2001 无法解析的外部符号
  • ¥50 安装pyaudiokits失败
  • ¥15 计组这些题应该咋做呀
  • ¥60 更换迈创SOL6M4AE卡的时候,驱动要重新装才能使用,怎么解决?
  • ¥15 让node服务器有自动加载文件的功能
  • ¥15 jmeter脚本回放有的是对的有的是错的