spark streaming实时分析处理时,处理的数据可能会出现重复,需要根据唯一的key进行处理,谁知道怎么处理
1条回答
- 云羿~~~ 2020-03-26 17:25关注
根据场景来分析,如果是时间窗口内的去重,可以使用常规的distinct的方式,如果全局的去重,可以将key放入rdis中去重
解决 无用评论 打赏 举报
spark streaming实时分析处理时,处理的数据可能会出现重复,需要根据唯一的key进行处理,谁知道怎么处理
根据场景来分析,如果是时间窗口内的去重,可以使用常规的distinct的方式,如果全局的去重,可以将key放入rdis中去重