最近学了下spark,关于spark yarn模式很困惑,找视频翻书都没找到明确答案,有知道的麻烦解答下~
如题,假设有5台机器,spark on yarn模式部署时:
1、计划1台做hadoop的master,其余4台做slave,这是hadoop集群;
2、这时还需要在5台中也分别安装好spark吗,还是比如只在其中3台机器中装好spark然后做这3台的spark集群配置就行了,又或者只需要hadoop的master这一台机器装好这一处spark就行了,如果是只在master这一台机器上装spark,那么实际计算时使用到的节点是hadoop集群配置的那些吗?
求解答,多谢~
spark yarn需要部署多个spark吗?
- 写回答
- 好问题 0 提建议
- 追加酬金
- 关注问题
- 邀请回答
-
2条回答
相关推荐 更多相似问题
点击登录
提问题
悬赏问题
- ¥15 android object box 一个实体多个表怎么写
- ¥15 temux 启用docker 服务失败
- ¥15 Flask 使用celery发送邮件出现‘目标计算机积极拒绝‘
- ¥60 老人用的sd卡在手机里面不知道操作了什么,导致图片和视频变成了文件,取下sd卡连接电脑就是图中的样子,后缀改为.jpg才可以,需要用系统的画图软件才能打开,文件属性还是文件,有没有批量操作的解决办法
- ¥15 超时跳出方法代码的返回值问题
- ¥15 汇编语言程序设计设计,ascii码求数,再求数的BCD码
- ¥30 Mask rcnn训练自己的数据集出现问题!
- ¥20 研究人工智能时的几个问题
- ¥15 mysql的sql查询写法问题
- ¥15 Python中导入模块中的函数运行出错