3条回答 默认 最新
- hongyaodi5175 2018-01-05 02:32关注
1、临时解决方法:将spark/work目录下的文件手动删除,之后重新提交application就可以了。
2、修改spark配置文件:在spark-env.sh中加入如下内容
SPARK_WORKER_OPTS=”-Dspark.worker.cleanup.enabled=true”
这样,spark会自动清除已经停止运行的application的文件夹。如果是application一直在运行的话,就会持续向work目录写数据,这样work目录下的文件还是会越来越大
并最终无法写入。因此最好是以上两个方法同时使用,定期手工清理work目录下的文件。本回答被题主选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏 举报
悬赏问题
- ¥15 武汉岩海低应变分析软件,导数据库里不显示波形图
- ¥15 CreateBitmapFromWicBitmap内存释放问题。
- ¥30 win c++ socket
- ¥15 CanMv K210开发板实现功能
- ¥15 C# datagridview 栏位进度
- ¥15 vue3页面el-table页面数据过多
- ¥100 vue3中融入gRPC-web
- ¥15 kali环境运行volatility分析android内存文件,缺profile
- ¥15 写uniapp时遇到的问题
- ¥15 vs 2008 安装遇到问题