2201_75320577 2024-01-06 20:28 采纳率: 0%
浏览 6

关于运行pyspark时遇到的问题!(语言-python)

代码如下:

img

错误代码:
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
Traceback (most recent call last):
File "D:\henry\练习.py", line 11, in
print(rdd2.collect())
^^^^^^^^^^^^^^
File "D:\henry\venv\Lib\site-packages\pyspark\rdd.py", line 1833, in collect
sock_info = self.ctx._jvm.PythonRDD.collectAndServe(self._jrdd.rdd())
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "D:\henry\venv\Lib\site-packages\py4j\java_gateway.py", line 1322, in call
return_value = get_return_value(
^^^^^^^^^^^^^^^^^
File "D:\henry\venv\Lib\site-packages\py4j\protocol.py", line 326, in get_return_value
raise Py4JJavaError(
py4j.protocol.Py4JJavaError: An error occurred while calling z:org.apache.spark.api.python.PythonRDD.collectAndServe.
: org.apache.spark.SparkException: Job aborted due to stage failure: Task 14 in stage 0.0 failed 1 times, most recent failure: Lost task 14.0 in stage 0.0 (TID 14) (windows10.microdone.cn executor driver): java.io.IOException: Cannot run program "C:/Users/赵恒力/AppData/Local/Programs/Python/Python311": CreateProcess error=5, 拒绝访问。
at java.lang.ProcessBuilder.start(ProcessBuilder.java:1048)
at org.apache.spark.api.python.PythonWorkerFactory.createSimpleWorker(PythonWorkerFactory.scala:181)
at org.apache.spark.api.python.PythonWorkerFactory.create(PythonWorkerFactory.scala:109)
at org.apache.spark.SparkEnv.createPythonWorker(SparkEnv.scala:124)
at org.apache.spark.api.python.BasePythonRunner.compute(PythonRunner.scala:174)
at org.apache.spark.api.python.PythonRDD.compute(PythonRDD.scala:67)
at org.apache.spark.rdd.RDD.computeOrReadCheckpoint(RDD.scala:364)
at org.apache.spark.rdd.RDD.iterator(RDD.scala:328)
at org.apache.spark.scheduler.ResultTask.runTask(ResultTask.scala:93)
at org.apache.spark.TaskContext.runTaskWithListeners(TaskContext.scala:161)
at org.apache.spark.scheduler.Task.run(Task.scala:141)
a

  • 写回答

1条回答 默认 最新

  • CSDN-Ada助手 CSDN-AI 官方账号 2024-01-06 23:05
    关注

    【以下回答由 GPT 生成】

    解决方案:

    根据提供的错误信息,我们可以尝试以下解决方案:

    1. 这个问题是由于使用了错误的Python解释器导致的。根据错误信息中提到的路径,可以看出你的Python解释器位于C:/Users/赵恒力/AppData/Local/Programs/Python/Python311。请确保你正在使用正确的Python解释器。你可以通过运行python --version命令来确认所使用的Python版本。如果确认版本无误,请继续下一步。

    2. 确保你已正确安装了Spark和PySpark,并正确设置了其环境变量。

    3. 对于日志级别的设置,你可以在代码中添加以下命令来设置日志级别为WARN:

      python from pyspark import SparkContext, SparkConf conf = SparkConf().setAppName("AppName").setMaster("local") sc = SparkContext(conf=conf) sc.setLogLevel("WARN")

      将这段代码放在你的脚本文件开头即可。

    4. 确保你的代码中的rdd2是正确初始化和设置的。检查是否有必要的依赖项,并正确传递了参数。

    以上是对给出的错误信息的解释和可能的解决方案。根据具体情况,你可以尝试逐个解决上述问题,以查找并解决导致错误的根本原因。如果你遇到了其他问题或不能解决这个问题,请提供更多信息,我将尽力帮助你解决。


    如果你已经解决了该问题, 非常希望你能够分享一下解决方案, 写成博客, 将相关链接放在评论区, 以帮助更多的人 ^-^
    评论

报告相同问题?

问题事件

  • 创建了问题 1月6日

悬赏问题

  • ¥50 使用MS Log Parser查询使用Bitvise SSH Server登录的IP
  • ¥20 校园二手交易小程序搭建
  • ¥15 请问在ubuntu用conda创建环境报错怎么能解决
  • ¥15 STM32CubeMX/proteus按键控制指示灯颜色切换
  • ¥20 python,计算区位熵和扩张指数
  • ¥15 Python环境配置
  • ¥15 大四学生的困惑,有偿提问!
  • ¥15 解决页面无法编入索引:被“noindex”标签排除的问题?
  • ¥15 arduino测量电阻
  • ¥15 快手uid转快手号谁能解决 需要开发