python运行pyspark报错winerror2系统无法找到指定文件,我试了一下,报错就是在sc = SparkContext(conf=conf)语句报错,环境变量我也找了资料补充了,但就是运行不了,就是一个最基础的代码,python是我重新安装过的,没重新安装前是可以运行的,然后中间又安装过anaconda,也不行就又重新装了python,然后就都不行了,各种帖子的方法都试过了不知道该怎么解决了,不知道是不是环境变量的问题,但在没有删过之前,也是按照贴纸的环境变量设置的,是能正常运行的,但现在看不懂怎么搞了,有没有大佬来指点一下呀,提前谢谢大佬。
# 导包
from pyspark import SparkConf,SparkContext
# 创建SparkConf类对象
conf = SparkConf().setMaster("local[*]").setAppName("test_spark_app")
# 基于SparkConf类对象创建SparkContext对象
sc = SparkContext(conf=conf)
# 打印PySpark的运行版本
print(sc.version)
# 停止SparkContext对象的运行(运行PySpark程序)
sc.stop()
然后报错的内容是下面这样的
Traceback (most recent call last):
File "D:\pycharm\pythonProject2\第三阶段\py_spark\spark基础.py", line 11, in <module>
sc = SparkContext(conf=conf)
^^^^^^^^^^^^^^^^^^^^^^^
File "D:\ProgramData\anaconda3\Lib\site-packages\pyspark\context.py", line 195, in __init__
SparkContext._ensure_initialized(self, gateway=gateway, conf=conf)
File "D:\ProgramData\anaconda3\Lib\site-packages\pyspark\context.py", line 417, in _ensure_initialized
SparkContext._gateway = gateway or launch_gateway(conf)
^^^^^^^^^^^^^^^^^^^^
File "D:\ProgramData\anaconda3\Lib\site-packages\pyspark\java_gateway.py", line 99, in launch_gateway
proc = Popen(command, **popen_kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "D:\ProgramData\anaconda3\Lib\subprocess.py", line 1026, in __init__
self._execute_child(args, executable, preexec_fn, close_fds,
File "D:\ProgramData\anaconda3\Lib\subprocess.py", line 1538, in _execute_child
hp, ht, pid, tid = _winapi.CreateProcess(executable, args,
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
FileNotFoundError: [WinError 2] 系统找不到指定的文件。
Process finished with exit code 1