2301_80324544 2024-06-19 18:57 采纳率: 0%
浏览 4

代写Python昨业期未

img


具体内容找我看 感觉我这种文化水平低的人说什么话开头都是我(凑字)

  • 写回答

1条回答 默认 最新

  • 专家-赤兔[在线] 优质创作者: 编程框架技术领域 2024-06-19 18:57
    关注

    引自免费微信小程序:皆我百晓生

    根据描述,任务主要涉及几个部分:理解作业要求、下载附件、编写爬虫程序以及准备提交文件。下面将分步骤指导如何完成。

    第一步:理解作业要求

    作业要求包括阅读文档232学期大作业要求及实验报告模板.docx,这通常包含了实验的具体目标、评分标准和提交指南。这部分需要你自己阅读并理解。

    第二步:下载附件

    附件包括GPLIST.xls(股票代码清单)和scratchSinaNews.py(示例爬虫程序)。假设这些文件位于某个网络位置或学校平台,你可以使用Python的requests库来下载它们。

    下载代码示例

    import requests
    
    # 定义文件URL
    file_urls = ['http://example.com/GPLIST.xls', 'http://example.com/scratchSinaNews.py']
    
    # 遍历每个URL并下载文件
    for url in file_urls:
        response = requests.get(url)
        filename = url.split('/')[-1]
        with open(filename, 'wb') as f:
            f.write(response.content)
    

    第三步:编写爬虫程序

    你需要使用Python编写一个爬虫,从新浪财经或其他网站抓取股票信息。假设我们要从新浪财经抓取数据,可以使用requestsBeautifulSoup库。

    爬虫代码示例

    import requests
    from bs4 import BeautifulSoup
    
    # 目标网页URL
    url = 'http://finance.sina.com.cn/realstock/company/sh600000/nc.shtml'
    
    # 发送HTTP请求
    response = requests.get(url)
    
    # 解析HTML
    soup = BeautifulSoup(response.text, 'html.parser')
    
    # 找到包含股票信息的部分
    # 这里需要根据实际网页结构调整选择器
    stock_info = soup.select('.stock_info')[0].text.strip()
    
    print(stock_info)
    

    第四步:准备提交文件

    根据要求,你需要提交两个文件:

    1. 实验报告,命名格式为学号+姓名.docx
    2. 股票行情数据,命名格式为学号+姓名+AllStock.xls

    确保在提交之前检查文件命名是否符合要求,并且文件内容正确无误。

    总结

    以上步骤提供了完成作业的基本框架,具体细节如网页解析的选择器、实验报告的内容等,需要根据实际情况进行调整。如果遇到技术难题,可以进一步提问。祝你作业顺利!

    评论 编辑记录

报告相同问题?

问题事件

  • 创建了问题 6月19日