服务器内存64G,单节点
现有1亿数据,有几个字段需要分词后再聚合统计。1个字段大概10G左右的数据。
整个索引有300G大小。es使用的是6.3版本,如果用fielddata,试了好多次,
基本不能完成计算。有没有什么好的办法解决这个问题,或者使用其它的技术?
ElasticSearch 亿级数据量分词聚合问题
- 写回答
- 好问题 0 提建议
- 追加酬金
- 关注问题
- 邀请回答
-
服务器内存64G,单节点
现有1亿数据,有几个字段需要分词后再聚合统计。1个字段大概10G左右的数据。
整个索引有300G大小。es使用的是6.3版本,如果用fielddata,试了好多次,
基本不能完成计算。有没有什么好的办法解决这个问题,或者使用其它的技术?