排骨学长(\t) 2022-03-03 10:52 采纳率: 43.5%
浏览 83
已结题

sparksql遇到一个无解问题:Caused by: org.apache.hadoop.ipc.RemoteException

代码


```java
def main(args: Array[String]): Unit = {
        System.setProperty("HADOOP_USER_NAME", "root")
        //todo 创建sparksql的运行环境
        val conf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("hice")
        conf.set("spark.sql.hive.convertMetastoreOrc", "true")
        conf.set("spark.sql.orc.impl", "native")
        //启用hive支持
        val spark =SparkSession.builder().enableHiveSupport().config(conf).getOrCreate()

        spark.sql("use default")

        //查询基本数据
        spark.sql("select * from uu").show()

        //todo 关闭环境
        spark.close()

报错如下

```java
Caused by: org.apache.hadoop.ipc.RemoteException(java.lang.NullPointerException): java.lang.NullPointerException

  • 写回答

1条回答 默认 最新

  • konmor 2022-03-03 21:27
    关注

    建议百度。猜测是没有连接上。不好意思,这个没用过

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论

报告相同问题?

问题事件

  • 系统已结题 3月16日
  • 已采纳回答 3月8日
  • 创建了问题 3月3日