在第一次格式化成功后,主节点有namenode,但是从节点没有namenode,然后再一次进行格式化,就无法正常格式化。显示错误
2条回答 默认 最新
- 关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率
yy64ll 2021-11-08 21:53最佳回答 专家已采纳哈哈,我之前也遇到类似的问题,先启动dfs start-dfs.sh,在格式化,我前两天也上传一个Hadoop集群,可以看看
采纳该答案 已采纳该答案 专家已采纳评论解决 1 无用打赏举报微信扫一扫
分享评论登录 后可回复...
查看更多回答(1条)
报告相同问题?
提交
相关推荐 更多相似问题
- 2021-11-05 23:39回答 2 已采纳 哈哈,我之前也遇到类似的问题,先启动dfs start-dfs.sh,在格式化,我前两天也上传一个Hadoop集群,可以看看
- 2021-08-27 13:47回答 2 已采纳 看看你的防火墙有没有关,还有本地的映射有没有配
- 2022-02-09 08:07回答 1 已采纳 题主的hadoop102 和 hadoop103 应该没有开sudo 对吧,直接使用ssh进行命令的启动恐怕是不行的,可以尝试写一个跳转的shell到每个node中进行sudo启动,关于sudo权限
- 2020-07-02 20:40Liu_Ning_Bin的博客 报错 显示无法连接到node3:8485 检查IP配置,hosts配置都没有问题,检查防火墙是否关闭,关闭防火墙 防火墙关闭命令: 再次格式化namenode hdfs namenode -format 发现格式成功
- 2021-05-07 16:16做人要厚道2013的博客 注意 资源的下载地址: ...目录说明 不要更改docker_bigdata及子目录的目录结构 ...build_all.sh 可以构建需要用到的所有镜像, 运行的时候, 根据自己的需要选择需要构建的镜像,最后会创建 3 个容器 hadoop162, hadoop163
- 2022-04-18 14:25部署全分布模式Hadoop集群 实验报告一、实验目的 1. 熟练掌握 Linux 基本命令。 2. 掌握静态 IP 地址的配置、主机名和域名映射的修改。 3. 掌握 Linux 环境下 Java 的安装、环境变量的配置、Java 基本命令的使用。 ...
- 2021-07-18 00:29回答 2 已采纳 重建不需要,把hdfs中的 data log edit等目录清空(所有用到的目录清空),停止集群,启动jourNode,启动一个nameNode,然后再进行格式化就好
- 2021-10-26 01:56回答 2 已采纳 bin/hdfs namenode -format或者bin/hadoop namenode -format你bin后面带空格干啥
- 2021-10-13 00:50回答 1 已采纳 是格式化了两次 nameNode嘛,导致dataNode中存储的nameNode的clusterID与nameNode本身的不符。去这个路径下 /opt/hadoop/tmp/hadoop-hadoo
- 2022-03-24 17:56吕布辕门的博客 目录Docker中Hadoop集群搭建环境网络设置安装docker安装OpenSSH免密登录Ansible安装软件环境配置配置hadoop运行所需配置文件Hadoop 启动问题 Docker中Hadoop集群搭建 环境 1、操作系统: CentOS 7 64位 网络设置 ...
- 2021-06-15 21:231.本机虚拟机镜像为ova格式,大小为2.9G,仅限VirtualBox使用,本机无图形界面!请注意! 2.本机为ubuntu16.04服务器版本,无图形...5.使用hadoop集群前,需要根据本地虚拟机的IP地址修改/etc/hosts文件中的host配置。
- 2022-03-12 17:31晨_星的博客 Hadoop大数据集群搭建 官网地址:http : // hadoop. apache. org 其他下载地址:https://archive.apache.org/dist/hadoop/common/ 一、单机部署 1、环境要求: 2cpu、2G、java 2、安装java环境: yum -y install ...
- 2021-10-07 22:14回答 1 已采纳 cd /usr/local/hadoop ./sbin/stop-dfs.sh # 关闭 rm -r ./tmp # 删除 tmp 文件,注意这会删除 HDFS 中原有的所有数据 ./bi
- 2021-09-21 11:15回答 1 已采纳 在hdfs-site.xml中关闭权限检查 <property> <name>dfs.permissions.enabled</name>
- 2021-11-17 16:51回答 1 已采纳 看看自己是不是在/etc/hosts设置文件里给127.0.0.1配置了像xxxxx这样的主机名,去掉127.0.0.1额外配的主机名应该就可以了,还有就是zk节点数最好是大于1的奇数,别弄成偶数了
- 2022-03-19 23:16数据微醺的博客 说明:本篇文章只会介绍搭建hadoop集群比较核心的部分,hdfs、yarn和mapreduce部分。 介绍: (1)版本是hadoop3.X版本。 (2)JDK选择的是jdk1.8版本。 (3)由于是用于学习的,所以搭建的是最小的集群(3台机器)...
- 2019-10-28 17:24climb.xu的博客 hadoop完全分布式集群搭建 集群信息 jdk: 1.8 linux: ubuntu18.04 server hadoop: hadoop2.9.2 虚拟机: VMware
- 2021-07-07 18:58hailunw的博客 1)停止Hadoop集群 2)确保所有的服务器上zkServer都在运行 [user@NewBieSlave2 ~]$ zkServer.sh start ZooKeeper JMX enabled by default Using config: /home/user/apache-zookeeper/bin/../conf/zoo.cfg ...
- 2022-04-11 01:29回答 1 已采纳 有两个问题:第一个问题就是你说的,无法解析主机名,这应该是你在hadoop1里面,没有设置,ip地址对应主机名(hadoop1);解决方法:修改etc/hosts文件,上面两行注释了,添加一个本机ip
- 2022-01-08 21:59腾讯云_分享的博客 本文主要介绍如何在腾讯云CVM上搭建Hadoop集群,以及如何通过distcp工具将友商云Hadoop中的数据迁移到腾讯云自建Hadoop集群。也可以考虑使用轻量服务器作为替代。 二、环境说明 JDK版本:jdk1.8.0_171 Hadoop版本:...
- 没有解决我的问题, 去提问