Spark-2.3.0环境搭建安装 在启动spark时出现错误,如图:
搭建过程参考:https://blog.csdn.net/csdnmrliu/article/details/82982183
应该怎么改正?
Spark-2.3.0环境搭建安装 在启动spark时出现错误,如图:
收起
这里提示的是你的spark里边的配置文件spark-env.sh 里边的hadoop路径写错了 这里应该是在hadop-2.7.5/etc/hadoop
还有就是你的scala的路径也写错了,你在检查一下,
报告相同问题?