2301_82088974 2024-11-14 21:56 采纳率: 0%
浏览 7

spark和hadoop配置环境变量

我这个不知道当时为什么配置了两个JAVA_HOME,目前学完hadoop准备学spark,安装配置spark过程中发现这个,不敢轻举妄动了,已老实(之前天天在创造bug天天改bug)
有哪位朋友可以告诉我该怎么删或者修改什么东西吗?感恩

img

img

我的环境变量是这样的

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
export PATH=$PATH:$JAVA_HOME/bin
export HADOOP_HOME=/usr/local/hadoop-3.4.0
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

export PATH=$PATH:/usr/local/hadoop-3.4.0/bin
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/jre/bin/java
export JRE_HOME=${JAVA_HOME}/jre  
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib  
export PATH=${JAVA_HOME}/bin:$PATH
  • 写回答

1条回答 默认 最新

  • Microi风闲 优质创作者: 编程框架技术领域 2024-11-16 00:41
    关注

    以下是在常见操作系统中配置 Spark 和 Hadoop 环境变量的步骤:

    Linux

    1. 打开终端,使用文本编辑器打开 ~/.bashrc 文件,如 vi ~/.bashrc。

    2. 在文件末尾添加以下内容,假设 Hadoop 和 Spark 分别安装在 /usr/local/hadoop 和 /usr/local/spark 目录下:
      export HADOOP_HOME=/usr/local/hadoop
      export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
      export SPARK_HOME=/usr/local/spark
      export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

    3. 保存文件后,在终端执行 source ~/.bashrc 使配置生效。

    macOS

    1. 打开终端,编辑 ~/.bash_profile 或 ~/.zshrc 文件,如 vi ~/.bash_profile。

    2. 加入类似如下内容,根据实际安装路径修改:
      export HADOOP_HOME=/usr/local/hadoop
      export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
      export SPAR K_HOME=/usr/local/spark
      export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

    3. 执行 source ~/.bash_profile 或 source ~/.zshrc 使配置生效。

    Windows

    1. 右键点击“此电脑”,选择“属性”,在弹出窗口中点击“高级系统设置”。

    2. 在“系统属性”窗口的“高级”选项卡下,点击“环境变量”按钮。

    3. 在“系统变量”区域,点击“新建”,创建 HADOOP_HOME 和 SPARK_HOME 变量,分别设置为 Hadoop 和 Spark 的安装目录。

    4. 选中“Path”变量,点击“编辑”,在变量值末尾添加 ;%HADOOP_HOME%\bin;%HADOOP_HOME%\sbin;%SPARK_HOME%\bin;%SPARK_HOME%\sbin。注意,分号是分隔符。

    5. 点击“确定”保存所有设置。

    评论

报告相同问题?

问题事件

  • 创建了问题 11月14日