写点什么

【HDFS】集群出现大量的 Under Replicated Blocks

作者:扬_帆_起_航
  • 2024-09-10
    北京
  • 本文字数:487 字

    阅读完需:约 2 分钟

1.前言

Hadoop 集群进行机器缩容时发现 HDFS 集群出现大量的 Under Replicated Blocks 并且请求同步副本数为 10 超过默认设置的副本数 2(dfs.replication),影响集群稳定性。

2.分析

【1】查看 NameNode 的 UI 页面出现大量的 Under Replicated Blocks 且长时间没有完成



【2】hdfs fsck / 查看集群数据健康情况,大量文件请求 10 副本



【3】文件设置副本数或删除文件后,还会出现少量的 Under Replicated Blocks

 hdfs dfs -setrep -w 2 /user/root/.staging/job_1724120681289_0001/job.split
复制代码

【4】在 hive-site.xml 中增加下列配置项,值设置为 2,集群恢复正常。

<property>  <name>mapreduce.client.submit.file.replication</name>  <value>10</value>  <description>The replication level for submitted job files.  This  should be around the square root of the number of nodes.  </description></property>
复制代码

3.总结

出现上述问题主要原因是 MapReduce 的 mapreduce.client.submit.file.replication 默认为 10,当集群规模恰好低于 10 台时才会出现上述现象。因为只在 Hive 中运行 MapReduce 任务,所以在 hive-site.xml 中增加此配置项并且值设置为 2 即可,不需要重启服务。

发布于: 刚刚阅读数: 5
用户头像

尘世中一个迷途小书童! 2020-03-09 加入

大数据领域从业者,近几年一直从事Kafka领域相关工作

评论

发布
暂无评论
【HDFS】集群出现大量的Under Replicated Blocks_扬_帆_起_航_InfoQ写作社区