【HDFS】集群出现大量的 Under Replicated Blocks
1.前言
Hadoop 集群进行机器缩容时发现 HDFS 集群出现大量的 Under Replicated Blocks 并且请求同步副本数为 10 超过默认设置的副本数 2(dfs.replication),影响集群稳定性。
2.分析
【1】查看 NameNode 的 UI 页面出现大量的 Under Replicated Blocks 且长时间没有完成
【2】hdfs fsck / 查看集群数据健康情况,大量文件请求 10 副本
【3】文件设置副本数或删除文件后,还会出现少量的 Under Replicated Blocks
复制代码
【4】在 hive-site.xml 中增加下列配置项,值设置为 2,集群恢复正常。
复制代码
3.总结
出现上述问题主要原因是 MapReduce 的 mapreduce.client.submit.file.replication 默认为 10,当集群规模恰好低于 10 台时才会出现上述现象。因为只在 Hive 中运行 MapReduce 任务,所以在 hive-site.xml 中增加此配置项并且值设置为 2 即可,不需要重启服务。
版权声明: 本文为 InfoQ 作者【扬_帆_起_航】的原创文章。
原文链接:【http://xie.infoq.cn/article/85e5c23198fd8c289ebb6dc26】。文章转载请联系作者。
评论