我说假如 2016-05-24 07:56 采纳率: 0%
浏览 3

关于文件读写性能问题

有几个系统,每天向一个FTP服务器写入操作日志,一天大概可以写入10G左右的文件,且文件比较零碎。
目前需要把这些文件里面的日志提取到库表。使用greenplum的外部表把数据copy到表了,而且是一次性的提取,这样有时候会很慢,也试过一个个文件的提取,但也不是很理想。
想问问大神,还有什么好的思路或者可以优化的地方吗?

  • 写回答

1条回答 默认 最新

  • zmycoco2 博客专家认证 2016-05-24 14:03
    关注

    您好!
    这是个方案的选择,可以采用Shell脚本切分文件并行读取方式解决,也可以采用Hadoop解决,就看你的实际项目情况和人员技术能力。
    对于用户的需求,结合自身能力总是能够找到目前最适合自己的软件架构、方法,所以没有什么是一定最好的,只有最适合自己的。
    我有计划在今年下半年开始编写一本和你所提问题相关的软件开发思路书籍,希望到时候能够帮助到你。

    评论

报告相同问题?

悬赏问题

  • ¥15 执行 virtuoso 命令后,界面没有,cadence 启动不起来
  • ¥50 comfyui下连接animatediff节点生成视频质量非常差的原因
  • ¥20 有关区间dp的问题求解
  • ¥15 多电路系统共用电源的串扰问题
  • ¥15 slam rangenet++配置
  • ¥15 有没有研究水声通信方面的帮我改俩matlab代码
  • ¥15 ubuntu子系统密码忘记
  • ¥15 保护模式-系统加载-段寄存器
  • ¥15 电脑桌面设定一个区域禁止鼠标操作
  • ¥15 求NPF226060磁芯的详细资料