热爱Coding 2021-07-21 10:25 采纳率: 100%
浏览 87
已采纳

优化 Spark group-by 时 key【过多】有什么办法?

优化 Spark group-by 时 key【过多】有什么办法?

  • 写回答

2条回答 默认 最新

  • 热爱Coding 2021-07-22 09:10
    关注

    key太多从来不是问题,有几个key后面数据太多才是问题。

    https://blog.csdn.net/guotong1988/article/details/118996129

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(1条)

报告相同问题?

问题事件

  • 已采纳回答 7月22日
  • 创建了问题 7月21日

悬赏问题

  • ¥30 自适应 LMS 算法实现 FIR 最佳维纳滤波器matlab方案
  • ¥15 lingo18勾选global solver求解使用的算法
  • ¥15 全部备份安卓app数据包括密码,可以复制到另一手机上运行
  • ¥15 Python3.5 相关代码写作
  • ¥20 测距传感器数据手册i2c
  • ¥15 RPA正常跑,cmd输入cookies跑不出来
  • ¥15 求帮我调试一下freefem代码
  • ¥15 matlab代码解决,怎么运行
  • ¥15 R语言Rstudio突然无法启动
  • ¥15 关于#matlab#的问题:提取2个图像的变量作为另外一个图像像元的移动量,计算新的位置创建新的图像并提取第二个图像的变量到新的图像