passself 2022-04-18 11:27 采纳率: 33.3%
浏览 166
已结题

python读取多文件搜索关键字,速度优化问题

python读取多文件搜索关键字,速度优化问题

现在的方式是传统的 with open file:

readlines 然后 每行用__contains__(关键字)

大约20多个关键字,搜索10w个文件,需要的时间是17分钟。

佬们有没有优化的方式,意见建议都行哈

  • 写回答

14条回答 默认 最新

  • 不会长胖的斜杠 后端领域新星创作者 2022-04-18 11:35
    关注
    获得1.00元问题酬金

    主要耗费时间是IO上,你看是否能把文件融合,达到减少IO的效果,如果不能减少数量的话,总体速度还是不够快
    如果不能减少数量,建议减少文件存储方式
    1.存储数据库
    2.使用其他格式,例如:假如是数组,改用为npy文件存储,速度会快很多
    3.如果是频繁读取,例如CS模式,可以将采取数据服务器一直将文件内容存在内存,就避免了IO操作

    其次,匹配关键字用的是啥函数?可以试试map,应该也会提速

    望采纳~

    评论 编辑记录

报告相同问题?

问题事件

  • 系统已结题 4月26日
  • 赞助了问题酬金20元 4月18日
  • 创建了问题 4月18日

悬赏问题

  • ¥15 为什么使用javacv转封装rtsp为rtmp时出现如下问题:[h264 @ 000000004faf7500]no frame?
  • ¥15 乘性高斯噪声在深度学习网络中的应用
  • ¥15 运筹学排序问题中的在线排序
  • ¥15 关于docker部署flink集成hadoop的yarn,请教个问题 flink启动yarn-session.sh连不上hadoop,这个整了好几天一直不行,求帮忙看一下怎么解决
  • ¥30 求一段fortran代码用IVF编译运行的结果
  • ¥15 深度学习根据CNN网络模型,搭建BP模型并训练MNIST数据集
  • ¥15 C++ 头文件/宏冲突问题解决
  • ¥15 用comsol模拟大气湍流通过底部加热(温度不同)的腔体
  • ¥50 安卓adb backup备份子用户应用数据失败
  • ¥20 有人能用聚类分析帮我分析一下文本内容嘛