沙漏261 2022-09-20 18:51 采纳率: 0%
浏览 198

jupyter notebook 中 SPARK_HOME env没有正确被加载

问题遇到的现象和发生背景

在jupyter notebook 中运行
import findspark
findspark.init()
出现报错:Couldn't find Spark, make sure SPARK_HOME env is set or Spark is in an expected location (e.g. from homebrew installation)

用代码块功能插入代码,请勿粘贴截图
import findspark
findspark.init()

运行结果及报错内容

Couldn't find Spark, make sure SPARK_HOME env is set or Spark is in an expected location (e.g. from homebrew installation)

我想要达到的结果

正确运行,不出现 SPARK_HOME env设置和路径位置的报错

  • 写回答

1条回答 默认 最新

  • Elwin Wong 2022-09-20 18:56
    关注

    一般我会在一开始设置好SPARK_HOME环境变量:

    import os
    
    os.environ['SPARK_HOME'] = /path/to/your/spark
    os.environ['PYSPARK_PYTHON'] = /path/to/pyspark虚拟环境的python解释器
    os.environ['PYSPARK_DRIVER_PYTHON'] = /path/to/pyspark虚拟环境的python解释器
    
    评论 编辑记录

报告相同问题?

问题事件

  • 创建了问题 9月20日

悬赏问题

  • ¥15 多电路系统共用电源的串扰问题
  • ¥15 shape_predictor_68_face_landmarks.dat
  • ¥15 slam rangenet++配置
  • ¥15 有没有研究水声通信方面的帮我改俩matlab代码
  • ¥15 对于相关问题的求解与代码
  • ¥15 ubuntu子系统密码忘记
  • ¥15 信号傅里叶变换在matlab上遇到的小问题请求帮助
  • ¥15 保护模式-系统加载-段寄存器
  • ¥15 电脑桌面设定一个区域禁止鼠标操作
  • ¥15 求NPF226060磁芯的详细资料