服务器内存64G,单节点
现有1亿数据,有几个字段需要分词后再聚合统计。1个字段大概10G左右的数据。
整个索引有300G大小。es使用的是6.3版本,如果用fielddata,试了好多次,
基本不能完成计算。有没有什么好的办法解决这个问题,或者使用其它的技术?
ElasticSearch 亿级数据量分词聚合问题
- 写回答
- 好问题 0 提建议
- 追加酬金
- 关注问题
- 邀请回答
-
1条回答 默认 最新
悬赏问题
- ¥15 素材场景中光线烘焙后灯光失效
- ¥15 请教一下各位,为什么我这个没有实现模拟点击
- ¥15 执行 virtuoso 命令后,界面没有,cadence 启动不起来
- ¥50 comfyui下连接animatediff节点生成视频质量非常差的原因
- ¥20 有关区间dp的问题求解
- ¥15 多电路系统共用电源的串扰问题
- ¥15 slam rangenet++配置
- ¥15 有没有研究水声通信方面的帮我改俩matlab代码
- ¥15 ubuntu子系统密码忘记
- ¥15 保护模式-系统加载-段寄存器