weixin_43272283 2019-05-21 18:08 采纳率: 0%
浏览 2179

Spark 感觉任务都集中在了某一个Task上,最终报executor lost failure,执行失败。

各位大佬,请教一个问题。
关于spark任务的。
一个大表和一个小表join,大表1.7亿条,小表几百条。
我已经把小表广播了。
在集群下执行的时候,总卡到一个task(通过ui看每次都是最后一个)上,然后长时间等待,最后报executor lost failure。就异常退出了!

这是怎么回事呢?

  • 写回答

1条回答 默认 最新

  • 西門吹牛__Linux 2019-05-30 17:29
    关注

    Task倾斜,你可以尝试对大表进行repartition(task数的倍数),然后 join broadcast(小表名) 小表广播

    评论

报告相同问题?

悬赏问题

  • ¥15 Stata 面板数据模型选择
  • ¥20 idea运行测试代码报错问题
  • ¥15 网络监控:网络故障告警通知
  • ¥15 django项目运行报编码错误
  • ¥15 请问这个是什么意思?
  • ¥15 STM32驱动继电器
  • ¥15 Windows server update services
  • ¥15 关于#c语言#的问题:我现在在做一个墨水屏设计,2.9英寸的小屏怎么换4.2英寸大屏
  • ¥15 模糊pid与pid仿真结果几乎一样
  • ¥15 java的GUI的运用