livsun_love 2015-07-31 06:53 采纳率: 0%
浏览 5342
已结题

spark streaming实时分析去重问题

spark streaming实时分析处理时,处理的数据可能会出现重复,需要根据唯一的key进行处理,谁知道怎么处理

  • 写回答

1条回答 默认 最新

  • 云羿~~~ 2020-03-26 17:25
    关注

    根据场景来分析,如果是时间窗口内的去重,可以使用常规的distinct的方式,如果全局的去重,可以将key放入rdis中去重

    评论

报告相同问题?

悬赏问题

  • ¥15 chaquopy python 安卓
  • ¥50 Kubernetes&Fission&Eleasticsearch
  • ¥15 CSS实现渐隐虚线框
  • ¥15 有没有帮写代码做实验仿真的
  • ¥15 報錯:Person is not mapped,如何解決?
  • ¥30 vmware exsi重置后登不上
  • ¥15 易盾点选的cb参数怎么解啊
  • ¥15 MATLAB运行显示错误,如何解决?
  • ¥15 c++头文件不能识别CDialog
  • ¥15 Excel发现不可读取的内容