海宝宝m
2021-07-04 22:12
采纳率: 50%
浏览 53

spark yarn需要部署多个spark吗?

最近学了下spark,关于spark yarn模式很困惑,找视频翻书都没找到明确答案,有知道的麻烦解答下~
如题,假设有5台机器,spark on yarn模式部署时:
1、计划1台做hadoop的master,其余4台做slave,这是hadoop集群;
2、这时还需要在5台中也分别安装好spark吗,还是比如只在其中3台机器中装好spark然后做这3台的spark集群配置就行了,又或者只需要hadoop的master这一台机器装好这一处spark就行了,如果是只在master这一台机器上装spark,那么实际计算时使用到的节点是hadoop集群配置的那些吗?
求解答,多谢~

2条回答 默认 最新

相关推荐 更多相似问题