DPnice 2017-11-16 06:23 采纳率: 0%
浏览 1753
已结题

14亿条有格式的数据怎么实现复杂条件下秒级查询

现在在mysql 有 14亿 行数据,我现在是这么做的,将数据导出到hdfs,将数据根据一个
字段hash分区 分成1000个小文件,用spark+kafka+redis ,web端发送条件到kafka
spark程序消费数据(条件),从hdfs读取对应的hash文件,条件判断之后将数据保存
到redis。有什么更好的解决方案吗,前提是机器内存有限16-32g左右。

  • 写回答

3条回答

  • cjw_msn 2018-08-12 12:09
    关注

    先建立映射表,通过映射表进行条件查询hash 速度本来就很快,建立好映射了查询就快了。

    评论

报告相同问题?

悬赏问题

  • ¥30 vmware exsi重置后登不上
  • ¥15 易盾点选的cb参数怎么解啊
  • ¥15 MATLAB运行显示错误,如何解决?
  • ¥15 c++头文件不能识别CDialog
  • ¥15 Excel发现不可读取的内容
  • ¥15 关于#stm32#的问题:CANOpen的PDO同步传输问题
  • ¥20 yolov5自定义Prune报错,如何解决?
  • ¥15 电磁场的matlab仿真
  • ¥15 mars2d在vue3中的引入问题
  • ¥50 h5唤醒支付宝并跳转至向小荷包转账界面