我说假如 2016-07-13 01:40 采纳率: 0%
浏览 6

大数据之ETL问题。。。。。(自动补足长度)

一个客户的几个项目,每天产生大量日志,且都是零零碎碎的文件,文件内容为特定的
json格式。

现在要做的是,把这些零碎文件里面的某部分json解析并提取出来,将其中符合规范的
数据入库。

现在是实现了,步骤就是定时将产生的日志文件下载到本地,然后进行解析,使用gp
外部表将文件的数据copy到表中。但感觉还不是很好,有什么更优的方法吗?

  • 写回答

1条回答 默认 最新

  • yxf286681263 2016-07-13 07:15
    关注

    是否可以考虑使用Kafka来进行日志采集呢?
    这个问题已经与具体的应用场景相关了,具体的最优方案需要根据具体场景进行研讨。

    评论

报告相同问题?

悬赏问题

  • ¥15 请教:如何用postman调用本地虚拟机区块链接上的合约?
  • ¥15 为什么使用javacv转封装rtsp为rtmp时出现如下问题:[h264 @ 000000004faf7500]no frame?
  • ¥15 乘性高斯噪声在深度学习网络中的应用
  • ¥15 运筹学排序问题中的在线排序
  • ¥15 关于docker部署flink集成hadoop的yarn,请教个问题 flink启动yarn-session.sh连不上hadoop,这个整了好几天一直不行,求帮忙看一下怎么解决
  • ¥15 深度学习根据CNN网络模型,搭建BP模型并训练MNIST数据集
  • ¥15 C++ 头文件/宏冲突问题解决
  • ¥15 用comsol模拟大气湍流通过底部加热(温度不同)的腔体
  • ¥50 安卓adb backup备份子用户应用数据失败
  • ¥20 有人能用聚类分析帮我分析一下文本内容嘛