veryhehe2011 2015-11-23 12:10 采纳率: 42.9%
浏览 4121
已采纳

关于spark RDD求平均的问题

hi,
假设我有一个spark RDD里面记录的是(时段,分数,次数)
我现在想求:每个时段的平均分数,即:同一个时段下,总分数 / 总次数
不知有什么好方法没有,因为我发现无论是action操作也好,转换成其他Rdd也好,
总没有满意方法,只能分成两个rdd然后关联处理

求大侠帮忙,谢谢

  • 写回答

1条回答 默认 最新

  • 云聪 2015-11-23 15:18
    关注

    先转化为pairrdd,以时段为键,分数次数为值,然后以键aggregate聚合,统计每个键下的值就行了

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论

报告相同问题?

悬赏问题

  • ¥15 c程序不知道为什么得不到结果
  • ¥40 复杂的限制性的商函数处理
  • ¥15 程序不包含适用于入口点的静态Main方法
  • ¥15 素材场景中光线烘焙后灯光失效
  • ¥15 请教一下各位,为什么我这个没有实现模拟点击
  • ¥15 执行 virtuoso 命令后,界面没有,cadence 启动不起来
  • ¥50 comfyui下连接animatediff节点生成视频质量非常差的原因
  • ¥20 有关区间dp的问题求解
  • ¥15 多电路系统共用电源的串扰问题
  • ¥15 slam rangenet++配置