平凡253 2023-10-11 16:38 采纳率: 0%
浏览 18

pyspark代码执行的时候报错job运行终止了,错误日志如下

在编写pyspark代码的执行之后报错,查了说是python版本,我现在降版本3.7.2还是报错,感觉不像是版本的问题,有谁能极大一下吗?

py4j.protocol.Py4JJavaError: An error occurred while calling z:org.apache.spark.api.python.PythonRDD.collectAndServe.
: org.apache.spark.SparkException: Job aborted due to stage failure: Task 1 in stage 0.0 failed 1 times, most recent failure: Lost task 1.0 in stage 0.0 (TID 1) (192.168.20.134 executor driver): org.apache.spark.SparkException: Python worker failed to connect back.
    at org.apache.spark.api.python.PythonWorkerFactory.createSimpleWorker(PythonWorkerFactory.scala:182)

  • 写回答

2条回答 默认 最新

  • 卑以自牧w 2023-10-11 17:00
    关注

    这是你的jdk版本太高了吧 ,你是几 最好用8

    评论

报告相同问题?

问题事件

  • 修改了问题 10月11日
  • 创建了问题 10月11日