yangshuyin520
yangshuyin520
采纳率0%
2018-12-27 10:48 阅读 503

HADOOP datanode同时三节点故障下查询BLOCK块信息

5

有一个关于hadoop dfs高可用的问题:



场景:
现在有一个HADOOP集群,节点数假设100个,副本设定为3,在某个时刻同时三台主机宕机。



问题:
集群内数据量大的话,一定有1~多个block块的三个副本同时在这三台故障主机上:

  1. 如何查询出这1~多个BLOCK块的信息(如ID号等等)?,以及这个BLOCK块所属的文件名?

  2. 或者在哪里(主节点监控页面或者hadoop原生shell查询),直接能够查到哪些文件不可用了?

  • 点赞
  • 写回答
  • 关注问题
  • 收藏
  • 复制链接分享

1条回答 默认 最新

相关推荐