知恩呐111 2021-11-05 23:39 采纳率: 100%
浏览 194
已结题

搭建hadoop集群时,格式化失败

img


在第一次格式化成功后,主节点有namenode,但是从节点没有namenode,然后再一次进行格式化,就无法正常格式化。显示错误

  • 写回答

2条回答 默认 最新

  • yy64ll826 2021-11-08 21:53
    关注

    哈哈,我之前也遇到类似的问题,先启动dfs start-dfs.sh,在格式化,我前两天也上传一个Hadoop集群,可以看看

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
  • 一点一点地成长 2021-11-10 20:34
    关注

    正常格式化成功如图:

    img


    第一次没有格式化成功,再第二次格式化就会出现异常,出现:

    img


    datanode和namenode的ID不一样
    这时候就需要:
    1.关闭所有服务(重启linux--目的就是为了关闭集群)
    2.删除每个节点上的data和logs (hadoop的根目录下)
    3.删除/tmp下的内容 : sudo rm -rf /tmp/*
    4.重新格式化
    然后就可以了

    评论
查看更多回答(1条)

报告相同问题?

问题事件

  • 系统已结题 11月23日
  • 已采纳回答 11月15日
  • 创建了问题 11月5日

悬赏问题

  • ¥15 复杂表达式求值程序里的函数优先级问题
  • ¥15 求密码学的客成社记ji着用
  • ¥35 POI导入树状结构excle
  • ¥15 初学者c语言题目解答
  • ¥15 div editable中的光标问题
  • ¥15 mysql报错1415Not allowed to return a result set from a trigger 不知如何修改
  • ¥60 Python输出Excel数据整理,算法较为复杂
  • ¥15 回答几个问题 关于数据库
  • ¥15 51单片机串口通信问题,未完成且要修改
  • ¥15 百鸡问题 c++编程问题(相关搜索:输出数据)