spark2.1.0运行spark on yarn的client模式一定需要自行编译吗?

如题,我用官网下载的预编译版本,每次运行client模式都会报错
ERROR SparkContext: Error initializing SparkContext.
org.apache.spark.SparkException: Yarn application has already ended! It might have been killed or unable to launch application master.
但是用cluster模式就能正常运行。网上看了一些~请问有这个说法吗?
采用的是java1.8,hadoop2.7.3,spark2.1.0。
请指导一下,谢谢!

3个回答

该博客可以解决你的问题:
http://blog.csdn.net/pucao_cug/article/details/72453382
你要检查你的Hadoop的yarm-site.xml中的配置。具体你看博文的3.1章节。

qq_27454673
qq_27454673 大神在公司用spark么?
大约 3 年之前 回复

你这个问题解决了么?

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
立即提问