我用的是cdh6.2.1,安装livy的时候发现没有Java环境,用Java -version报没有找到命令,但是我的hadoop和其他服务可以用,我用的是别人搭建的集群,不知道如何解决,目前卡在没有办法启动livy,请问各位怎么解决或者有其他方法。
目的就是让hue中能和hive一样写sparkSQL
如何在hue的编辑器里添加sparkSQL?
- 写回答
- 好问题 0 提建议
- 关注问题
- 邀请回答
-
1条回答 默认 最新
霸都小魔女 2023-03-03 20:01关注小魔女参考了bing和GPT部分内容调写:
要想在Hue中使用SparkSQL,首先需要安装Spark,然后在Hue中添加Spark的配置,以便Hue可以访问Spark。安装Spark的过程中,如果发现没有Java环境,可以先安装Java,然后再安装Spark。安装完成后,在Hue中添加Spark的配置,这样就可以在Hue的编辑器里添加SparkSQL了。具体的步骤如下:
- 安装Java环境,可以使用yum或者rpm安装,也可以从官网下载安装包安装;
- 安装Spark,可以从官网下载安装包安装,也可以使用yum或者rpm安装;
- 在Hue中添加Spark的配置,可以参考官方文档,按照步骤添加Spark的配置,以便Hue可以访问Spark;
- 在Hue的编辑器中添加SparkSQL,可以在Hue的编辑器中输入SparkSQL语句,然后点击提交按钮,即可执行SparkSQL语句。
# 代码 # 安装Java环境 yum install java # 安装Spark yum install spark # 添加Spark配置 # 参考官方文档 # 执行SparkSQL spark-sql> SELECT * FROM table_name;回答不易,记得采纳呀。
解决 无用评论 打赏 举报