关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
zero骑士
2022-05-11 19:47
采纳率: 55.6%
浏览 24
首页
大数据
window下安装spark,无法执行spark-shell
spark
hadoop
scala
如题,win下安装spark,无法执行spark-shell。
path全都进行了配置。
hadoop,java以及scala都是可以正常使用的。
写回答
好问题
提建议
追加酬金
关注问题
微信扫一扫
点击复制链接
分享
邀请回答
1
条回答
默认
最新
相关推荐
更多相似问题
在
window
下
安装
hive,启动报错(mysql8)
hadoop
hive
2022-04-10 23:38
回答 1
已采纳
没有
安装
成功,报错发过来
spark
环境搭建问题求助
linux
spark
2015-08-31 12:14
回答 2
已采纳
Linux: http://stark-summer.iteye.com/blog/2173219 http://my.oschina.net/mup/blog/387619
Window
s:
安装
了
window
builder后为什么新建项目没显示
eclipse
2016-03-17 10:29
回答 2
已采纳
 你
安装
好了吗?写一个界面用这样的方式打开看看有没有出
【
spark
-
shell
本地启动报java错误】本地
window
s
安装
spark
在控制台输入
spark
-
shell
出错:StringIndexOutOf Bounds Exception
2022-05-28 09:02
哒哒~哒的博客
前提:本地java、hadoop已经
安装
好,但本地cmd启动
spark
-
shell
报出
下
面错误,我的配置是hadoop2.7、
spark
-2.3.1。 提示:没有配置好hadoop、
spark
(两者版本有联系,有对应)请先在本地
安装
好hadoop、
spark
。 出错...
Spark
3.2.*
spark
-
shell
在
window
s启动失败原因characterIllegal character in path at index
2022-02-22 16:20
李木有大本事的博客
碰到这个问题也是一脸懵逼,刚开始以为是自己的环境问题,但是py
spark
就没什么问题,后来在StackOverFlow中找到了解决方案 ...启动两个
spark
, 一个master,然后用
spark
-
shell
连接master
spark
-class org.apache.spa
没有解决我的问题,
去提问