demonwang1025 2017-02-26 13:32 采纳率: 0%
浏览 4007

spark2.1.0运行spark on yarn的client模式一定需要自行编译吗?

如题,我用官网下载的预编译版本,每次运行client模式都会报错
ERROR SparkContext: Error initializing SparkContext.
org.apache.spark.SparkException: Yarn application has already ended! It might have been killed or unable to launch application master.
但是用cluster模式就能正常运行。网上看了一些~请问有这个说法吗?
采用的是java1.8,hadoop2.7.3,spark2.1.0。
请指导一下,谢谢!

  • 写回答

3条回答 默认 最新

  • zqbnqsdsmd 2017-02-26 21:41
    关注
    评论

报告相同问题?

悬赏问题

  • ¥30 STM32 INMP441无法读取数据
  • ¥100 求汇川机器人IRCB300控制器和示教器同版本升级固件文件升级包
  • ¥15 用visualstudio2022创建vue项目后无法启动
  • ¥15 x趋于0时tanx-sinx极限可以拆开算吗
  • ¥500 把面具戴到人脸上,请大家贡献智慧
  • ¥15 任意一个散点图自己下载其js脚本文件并做成独立的案例页面,不要作在线的,要离线状态。
  • ¥15 各位 帮我看看如何写代码,打出来的图形要和如下图呈现的一样,急
  • ¥30 c#打开word开启修订并实时显示批注
  • ¥15 如何解决ldsc的这条报错/index error
  • ¥15 VS2022+WDK驱动开发环境