我想用spark-submit提交个springboot的jar包,指定运行main函数是遇到了问题 20C

图片说明

3个回答

估计是主类的类名写错了吧,应该是全类名即包名+类名

qq_15147029
qq_15147029 1111
2 年多之前 回复
qq_41588776
qq_41588776 好像是
2 年多之前 回复
zhenghailong888
zhenghailong888 你仔细看我的--class参数,没错就是 包名+类名
2 年多之前 回复

1、临时解决方法:将spark/work目录下的文件手动删除,之后重新提交application就可以了。

2、修改spark配置文件:在spark-env.sh中加入如下内容

SPARK_WORKER_OPTS=”-Dspark.worker.cleanup.enabled=true”

这样,spark会自动清除已经停止运行的application的文件夹。如果是application一直在运行的话,就会持续向work目录写数据,这样work目录下的文件还是会越来越大
并最终无法写入。因此最好是以上两个方法同时使用,定期手工清理work目录下的文件。

使用local部署时,spark目录下没有work目录啊!

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
立即提问
相关内容推荐