qq_charm 2020-05-25 21:52 采纳率: 33.3%
浏览 539
已结题

ElasticSearch 亿级数据量分词聚合问题

服务器内存64G,单节点
现有1亿数据,有几个字段需要分词后再聚合统计。1个字段大概10G左右的数据。
整个索引有300G大小。es使用的是6.3版本,如果用fielddata,试了好多次,
基本不能完成计算。有没有什么好的办法解决这个问题,或者使用其它的技术?

  • 写回答

1条回答 默认 最新

  • threenewbee 2020-05-25 22:24
    关注
    评论

报告相同问题?