zero骑士 2022-05-11 19:47 采纳率: 91.7%
浏览 36
已结题

window下安装spark,无法执行spark-shell

如题,win下安装spark,无法执行spark-shell。
path全都进行了配置。
hadoop,java以及scala都是可以正常使用的。

img

img

img

img

  • 写回答

1条回答 默认 最新

  • 大锤爱编程 2022-05-11 21:42
    关注

    直接双击spark-shell.cmd

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论

报告相同问题?

问题事件

  • 系统已结题 11月15日
  • 已采纳回答 11月7日
  • 创建了问题 5月11日