wzqstudio 2022-10-23 11:28 采纳率: 100%
浏览 66
已结题

python如何优化多次读取相同文件

我读取(只读)一个目录里的几百个文件, 读取4000次,进行循环计算,不写文件,
时间都浪费在文件读取了(每个文件里格式相同,上千行,几十列)

有什么方法只读一次嘛? 比如把所有文件都保留在内存?缓存?mmap?


path='/test/data/'
for i in range(1,4000,1):
    for files in os.listdir(path):       (目录里有几百个文件)
        file = path+files
        df = pq.read_table(file).to_pandas() 
        接下来会根据i 和所有文件计算
  • 写回答

3条回答 默认 最新

  • 游一游走一走 2022-10-23 17:51
    关注

    你的代码是不有点问题啊?

    img


    在一个目录下,文件名肯定不重复,文件名作为key值,然后pd生成的二维数组直接为value给缓存不可以吗?

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论 编辑记录
查看更多回答(2条)

报告相同问题?

问题事件

  • 系统已结题 10月31日
  • 已采纳回答 10月23日
  • 修改了问题 10月23日
  • 修改了问题 10月23日
  • 展开全部

悬赏问题

  • ¥15 宇视监控服务器无法登录
  • ¥15 PADS Logic 原理图
  • ¥15 PADS Logic 图标
  • ¥15 电脑和power bi环境都是英文如何将日期层次结构转换成英文
  • ¥15 DruidDataSource一直closing
  • ¥20 气象站点数据求取中~
  • ¥15 如何获取APP内弹出的网址链接
  • ¥15 wifi 图标不见了 不知道怎么办 上不了网 变成小地球了
  • ¥50 STM32单片机传感器读取错误
  • ¥50 power BI 从Mysql服务器导入数据,但连接进去后显示表无数据