demonwang1025 2017-02-26 13:32 采纳率: 0%
浏览 4007

spark2.1.0运行spark on yarn的client模式一定需要自行编译吗?

如题,我用官网下载的预编译版本,每次运行client模式都会报错
ERROR SparkContext: Error initializing SparkContext.
org.apache.spark.SparkException: Yarn application has already ended! It might have been killed or unable to launch application master.
但是用cluster模式就能正常运行。网上看了一些~请问有这个说法吗?
采用的是java1.8,hadoop2.7.3,spark2.1.0。
请指导一下,谢谢!

  • 写回答

3条回答 默认 最新

  • zqbnqsdsmd 2017-02-26 21:41
    关注
    评论

报告相同问题?