zhenghailong888 2018-01-04 10:48 采纳率: 0%
浏览 4071
已采纳

我想用spark-submit提交个springboot的jar包,指定运行main函数是遇到了问题

图片说明

  • 写回答

3条回答 默认 最新

  • hongyaodi5175 2018-01-05 02:32
    关注

    1、临时解决方法:将spark/work目录下的文件手动删除,之后重新提交application就可以了。

    2、修改spark配置文件:在spark-env.sh中加入如下内容

    SPARK_WORKER_OPTS=”-Dspark.worker.cleanup.enabled=true”

    这样,spark会自动清除已经停止运行的application的文件夹。如果是application一直在运行的话,就会持续向work目录写数据,这样work目录下的文件还是会越来越大
    并最终无法写入。因此最好是以上两个方法同时使用,定期手工清理work目录下的文件。

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(2条)

报告相同问题?

问题事件

  • 已采纳回答 1月12日

悬赏问题

  • ¥15 FPGA-SRIO初始化失败
  • ¥15 MapReduce实现倒排索引失败
  • ¥15 ZABBIX6.0L连接数据库报错,如何解决?(操作系统-centos)
  • ¥15 找一位技术过硬的游戏pj程序员
  • ¥15 matlab生成电测深三层曲线模型代码
  • ¥50 随机森林与房贷信用风险模型
  • ¥50 buildozer打包kivy app失败
  • ¥30 在vs2022里运行python代码
  • ¥15 不同尺寸货物如何寻找合适的包装箱型谱
  • ¥15 求解 yolo算法问题