pyspark on yarn
运行底层rdd时报出:
WARN scheduler.TaskSetManager: Lost task 0.2 in stage 0.0 (TID 2, node02, executor 3): java.io.IOException: Cannot run program "/home/user/anaconda3/bin/python3": error=13, Permission denied。
实际上每个节点都装有环境,并且修改了权限为777。
de了半天依旧报错没有权限,恳请专家指点