qq_charm
2020-05-25 21:52
采纳率: 30.8%
浏览 495

ElasticSearch 亿级数据量分词聚合问题

服务器内存64G,单节点
现有1亿数据,有几个字段需要分词后再聚合统计。1个字段大概10G左右的数据。
整个索引有300G大小。es使用的是6.3版本,如果用fielddata,试了好多次,
基本不能完成计算。有没有什么好的办法解决这个问题,或者使用其它的技术?

  • 写回答
  • 好问题 提建议
  • 关注问题
  • 收藏
  • 邀请回答

1条回答 默认 最新

  • threenewbee 2020-05-25 22:24
    评论
    解决 无用
    打赏 举报

相关推荐 更多相似问题