目前Elasticsearch集群中索引中有7亿条数据,1Tb,字段10个,要求对账号字段进行去重,返回全部的不重复账号。使用Filnk或者spark全量扫描数据,对于集群压力太大,请问有别的方法吗
收起
当前问题酬金
¥ 0 (可追加 ¥500)
支付方式
扫码支付
支付金额 15 元
提供问题酬金的用户不参与问题酬金结算和分配
支付即为同意 《付费问题酬金结算规则》
管道预处理,reindex一个去重字段为ID的索引
报告相同问题?