win10下启动spark-shell错误
这个怎么解决?顺便在分析一下报错原因,我是小bai,有点不懂
在spark/conf/spark-env.sh中添加了,其他一切则正常
export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18080 -Dspark.history.retainedApplications=3 -Dspark.history.fs.logDirectory=hdfs://master:9000/history
win10下启动spark-shell错误
这个怎么解决?顺便在分析一下报错原因,我是小bai,有点不懂
在spark/conf/spark-env.sh中添加了,其他一切则正常
export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18080 -Dspark.history.retainedApplications=3 -Dspark.history.fs.logDirectory=hdfs://master:9000/history
引自免费微信小程序:皆我百晓生。
请检查Spark和Hadoop环境变量是否配置正确,JDK版本是否兼容,以及路径中的空格是否被正确转义。如果问题依旧,请提供详细报错信息以便更准确的诊断。