2 ajfly0622 ajfly0622 于 2016.04.08 16:32 提问

启动spark-shell时,运行结果如图所示,这样是成功了吗?为什么下面有两个错?

图片说明

希望有大神解答一下,刚接触spark

1个回答

rfyzzyq
rfyzzyq   2016.04.17 21:25

失败了,把上面的也截图出来看下吧

Csdn user default icon
上传中...
上传图片
插入图片
准确详细的回答,更有利于被提问者采纳,从而获得C币。复制、灌水、广告等回答会被删除,是时候展现真正的技术了!
其他相关推荐
spark-shell启动的问题解决
spark-shell启动的问题解决      今儿在启动spark-shell的时候模型奇妙的出现如下几个问题     1)端口占用:4040端口被占用,我们知道这里的4040是worker的端口使用,但是被占用啦,如下图所示:       使用如下命令:netstat -ap |grep 4040 tcp6       0      0 [::]:4040
启动spark-shell遇到的问题
系统:Windows10Spark 2.1.1+Hadoop 2.8.3+Scala 2.11.8+jdk1.8.0_171最近在学习spark的东西,本来像按照官方文档学的,但是第一个例子就报错。找了一下是启动spark-shell的时候就报错了已经报错信息如下:<console>:14: error: not found: valuespark      import spark....
spark shell 启动出错问题
错误描述:直接启动spark-shell,pia,出错了,之前一直是这样启动的啊,一点错也没有。心情不好的时候真的想一删了之,然后再下一个版本来用。可是想一想如果下载的也是这个样子,那我岂不是浪费时间,又做重复的事情,赔了夫人又折兵,虽然我没有夫人。。。。恩,还是静心看了看错误,忽然想起前段时间使用spark sql 从hive里面取数据来着,但是我的hive-site.xml和驱动包已经考到了对
spark-shell出错_解决方法
输入spark-shell出错 修改配置文件spark-default.conf 修改内容如下spark.authenticate=false spark.dynamicAllocation.enabled=true spark.dynamicAllocation.executorIdleTimeout=60 spark.dynamicAllocation.minExecutors=0
windows安装spark后spark-shell启动报错
Hadoop lib下已添加对应版本的winutils cmd输入D:\peizhi\hadoop\bin\winutils.exe chmod 777 /tmp/hive 不能成功启动spark-shell <console>:16: error: not found: value sqlContext import sqlContext.implicits._
APM之pinppoint分布式链路追踪部署以及简单操作篇
1.环境centos7.32.JKD1.83.Tomcat8.x以上三个步骤自行安装我就不说了。首先安装Hbase,笔者用的Hbase1.2.61.cd /usr/local    -&amp;gt;mkdir pinpoint  或者下载笔者准备好的环境 直接mv 到/usr/local  链接:https://pan.baidu.com/s/1YJ2RU5MImXX4UUjRuyP-7Q 密码:xhc...
spark-shell 启动 以及 例子
spark-shell 启动 以及 例子wordCount
CDH spark启动spark-shell报错:Permission denied: user=root, access=WRITE, inode="/user"
1、对非CDH用户,到Namenode上修改hadoop的配置文件:conf/hdfs-core.xml, 找到 dfs.permissions 的配置项 , 将value值改为 false&amp;lt;property&amp;gt; &amp;lt;name&amp;gt;dfs.permissions&amp;lt;/name&amp;gt; &amp;lt;value&amp;gt;false&amp;lt;/value&amp;gt; &amp;lt;descriptio...
CDH 安装spark后,spark-shell启动报错
CDH 装完spark后如果启动spark-shell遇到如下错误: 需要给spark配置java环境变量 vi/opt/cloudera-manager/cm-5.11.0/lib/cmf/service/client/deploy-cc.sh 直接添加环境变量
运行spark-shell时遇到的主机地址的错误
下载了spark 1.4,运行spark-shell时遇到以下错误: java.net.UnknownHostException: UKON-M-Q0EP: UKON-M-Q0EP: nodename nor servname provided, or not known at java.net.InetAddress.getLocalHost(InetAddress.java:1