输入start-all.sh,启动不了namenode和datanode,但是可以通过启动命令启动,而且etc/hadoop下没slaves文件,无法一键启动,该怎么解决?
2条回答 默认 最新
- 关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率
咕泡-星云 2021-08-04 17:16最佳回答 专家已采纳采纳该答案 已采纳该答案 专家已采纳评论解决 1 无用打赏举报微信扫一扫
分享评论登录 后可回复...
查看更多回答(1条)
报告相同问题?
提交
相关推荐 更多相似问题
- 2021-08-03 16:19回答 2 已采纳 可参考:https://blog.csdn.net/qq_37344125/article/details/102874914如有帮助,望采纳
- 2021-10-13 00:50回答 1 已采纳 是格式化了两次 nameNode嘛,导致dataNode中存储的nameNode的clusterID与nameNode本身的不符。去这个路径下 /opt/hadoop/tmp/hadoop-hadoo
- 2022-02-09 08:07回答 1 已采纳 题主的hadoop102 和 hadoop103 应该没有开sudo 对吧,直接使用ssh进行命令的启动恐怕是不行的,可以尝试写一个跳转的shell到每个node中进行sudo启动,关于sudo权限
- 2020-10-04 08:37zhangbw~的博客 注:这个启动脚本是通过ssh对多个节点的namenode、datanode、journalnode以及zkfc进程进行批量启动的。 启动NameNode sbin/hadoop-daemon.sh start namenode 启动DataNode sbin/hadoop-daemon.sh start datanode ...
- 2019-01-29 11:12爪 哇的博客 Hadoop 启动集群,启动 hdfs 的时候,启动 namenode 和 datanode 的时候 一个启动起来了,另一个又挂掉了: 一、切换到 root 用户,看你是否在 root 用户上有相应的进程,有的话需要杀掉。jps 二、正常用户启动...
- 2021-04-18 10:51Celees的博客 最近在尝试在搭建Hadoop集群并测试集群是否搭建成功,但是第一次格式化NameNode并启动HDFS和YARN时发现一会儿有DataNode或者NameNode但是后面就没有了,二者没有同时存在,也尝试过停止进程再重新启动都没有解决掉该...
- 2020-01-21 09:45回答 2 已采纳 这个涉及到网络配置以及系统原始镜像的配置的问题,最好联系百度云的技术支持派查,但是个人认为,网络和端口配置问题导致网络不通的可能性大。
- 2018-05-04 14:55回答 4 已采纳 Hadoop3要用workers代替之前版本的slaves。我配的时候也在这里被坑了
- 2021-12-26 23:10回答 1 已采纳 您这个问题是没有正常启动导致的呢,如果方便的话贴一下hadoop/log/里面的hdfs相关日志呢,方便解决问题呢 我之前也做过和您这个相关的实验,您可以参考一下呢:
- 2021-12-06 20:00weixin_46573136的博客 启动hadoop121,发现另外两个集群都没有DataNode进程 查看VERSION
- 2021-08-19 09:36CH339的博客 今天布置了有关hadoop分布式与伪分布式的作业,经过资料的查询,了解了很多概念,以下为整理的相关信息。 概念的理解: (1)分布式 利用分而治之的思想: 随着数据量越来越多,在一个操作系统管辖的范围存不下了,...
- 2017-07-29 08:21niushaoda的博客 Hadoop的相关进程无法正常启动,NameNode和DataNode两个进程无法正常启动,需要查看日志文件找出问题所在:1.遇到权限问题,原因是在root权限下启动了Hadoop,产生了相应的日志,在自己的用户下再次启动会因为无法...
- 2017-06-26 14:31回答 2 已采纳 我猜测是没有关联java 环境,hadoop需要设置java环境,修改在/etc/hadoo-env.sh export JAVA_HOME=/usr/java/jdk
- 2021-03-07 12:21回答 1 已采纳 配置错了吧,yarn的默认端口是8088,你把hdfs也配置成8088了,冲突了吧。如果前期不清楚这些配置干什么的,建议减少配置,能运行起来就行,后期知道了再往里面加 <property&g
- 2016-03-15 07:09回答 2 已采纳 start-master.sh: command not found 你这个是你的sh根本没有能找到,用绝对路径等试试
- 2020-03-29 18:51csm_81的博客 原因分析: 解决办法: ...etc/hadoop/hdfs-site.xml 增加上这一行 - <property> <name>hadoop.tmp.dir</name> <value>/opt/module/tmp</value> </p...
- 2021-01-11 22:23茶哩 cc的博客 导致修改后,导致Hadoop启动,失败,即jps后,没有namenode,datanode,显然这两个文件对于hadoop是至关重要的,要不然无法获取数据 一开始没有考虑查看日志排错(因为对于异常处理方面不敏感:???? 因为机缘巧合,碰巧...
- 2020-07-05 11:33日写BUG八百行的博客 从而出现start-all.sh的时候DataNode无法正常启动,或者两个只要启动其中一个,另一个就会挂掉的情况 找到tmp路径: 首先进入自己的Hadoop目录下 cd etc/hadoop 打开配置文件 vi core-site.xml 记下tmp目录的路径...
- 2021-11-09 17:48回答 1 已采纳 有可能datanode有多处磁盘损坏了,你可以尝试关闭其中那个有问题的节点继续测试
- 2019-09-17 00:34Hi洛一的博客 你的问题可能是这样的(jps没显示NameNode或DataNode): 第一台机器: 第二台机器: 第三台机器: 情况一:host文件域名映射没配 C:\Windows\System32\drivers\etc 找到host文件 添加域名映射 情况二...
- 没有解决我的问题, 去提问