最近学了下spark,关于spark yarn模式很困惑,找视频翻书都没找到明确答案,有知道的麻烦解答下~
如题,假设有5台机器,spark on yarn模式部署时:
1、计划1台做hadoop的master,其余4台做slave,这是hadoop集群;
2、这时还需要在5台中也分别安装好spark吗,还是比如只在其中3台机器中装好spark然后做这3台的spark集群配置就行了,又或者只需要hadoop的master这一台机器装好这一处spark就行了,如果是只在master这一台机器上装spark,那么实际计算时使用到的节点是hadoop集群配置的那些吗?
求解答,多谢~
spark yarn需要部署多个spark吗?
- 写回答
- 好问题 0 提建议
- 追加酬金
- 关注问题
- 邀请回答
-
2条回答 默认 最新
- syyyyyyyyyyyyyyh 2021-07-05 10:00关注
如果任务推送至yarn上,实际的工作节点为 nodeManager节点。与hive道理相同,hive默认跑mapreduce,单节点的hql查询也是推送任务至yarn上,工作节点为nodeManager节点。
本回答被题主选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏 举报
悬赏问题
- ¥50 用易语言http 访问不了网页
- ¥50 safari浏览器fetch提交数据后数据丢失问题
- ¥15 matlab不知道怎么改,求解答!!
- ¥15 永磁直线电机的电流环pi调不出来
- ¥15 用stata实现聚类的代码
- ¥15 请问paddlehub能支持移动端开发吗?在Android studio上该如何部署?
- ¥20 docker里部署springboot项目,访问不到扬声器
- ¥15 netty整合springboot之后自动重连失效
- ¥15 悬赏!微信开发者工具报错,求帮改
- ¥20 wireshark抓不到vlan