如题,我用官网下载的预编译版本,每次运行client模式都会报错
ERROR SparkContext: Error initializing SparkContext.
org.apache.spark.SparkException: Yarn application has already ended! It might have been killed or unable to launch application master.
但是用cluster模式就能正常运行。网上看了一些~请问有这个说法吗?
采用的是java1.8,hadoop2.7.3,spark2.1.0。
请指导一下,谢谢!
spark2.1.0运行spark on yarn的client模式一定需要自行编译吗?
- 写回答
- 好问题 0 提建议
- 关注问题
- 邀请回答
-