wzqstudio 2022-10-23 11:28 采纳率: 100%
浏览 65
已结题

python如何优化多次读取相同文件

我读取(只读)一个目录里的几百个文件, 读取4000次,进行循环计算,不写文件,
时间都浪费在文件读取了(每个文件里格式相同,上千行,几十列)

有什么方法只读一次嘛? 比如把所有文件都保留在内存?缓存?mmap?


path='/test/data/'
for i in range(1,4000,1):
    for files in os.listdir(path):       (目录里有几百个文件)
        file = path+files
        df = pq.read_table(file).to_pandas() 
        接下来会根据i 和所有文件计算
  • 写回答

3条回答 默认 最新

  • 游一游走一走 2022-10-23 17:51
    关注

    你的代码是不有点问题啊?

    img


    在一个目录下,文件名肯定不重复,文件名作为key值,然后pd生成的二维数组直接为value给缓存不可以吗?

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论 编辑记录
查看更多回答(2条)

报告相同问题?

问题事件

  • 系统已结题 10月31日
  • 已采纳回答 10月23日
  • 修改了问题 10月23日
  • 修改了问题 10月23日
  • 展开全部

悬赏问题

  • ¥15 求指导ADS低噪放设计
  • ¥15 CARSIM前车变道设置
  • ¥50 三种调度算法报错 有实例
  • ¥15 关于#python#的问题,请各位专家解答!
  • ¥200 询问:python实现大地主题正反算的程序设计,有偿
  • ¥15 smptlib使用465端口发送邮件失败
  • ¥200 总是报错,能帮助用python实现程序实现高斯正反算吗?有偿
  • ¥15 对于squad数据集的基于bert模型的微调
  • ¥15 为什么我运行这个网络会出现以下报错?CRNN神经网络
  • ¥20 steam下载游戏占用内存