Hadoop 集群搭建 -04 安装配置 HDFS
HDFS是配合Hadoop使用的分布式文件系统,分为
namenode: nn1.hadoop nn2.hadoop
datanode: s1.hadoop s2.hadoop s3.hadoop
(看不明白这5台虚拟机的请看前面 01前期准备 )
解压配置文件
初始化HDFS
流程:
启动zookeeper
启动journalnode
启动zookeeper客户端,初始化HA的zookeeper信息
对nn1上的namenode进行格式化
启动nn1上的namenode
在nn2上启动同步namenode
启动nn2上的namenode
启动ZKFC
启动dataname
1.查看zookeeper状态
看到两个follower和一个leader说明正常运行,如果没有,就用下边的命令启动
2.启动journalnode
这个玩意就是namenode的同步器。
3.初始化HA信息(仅第一次运行,以后不需要)
4.对nn1上的namenode进行格式化(仅第一次运行,以后不需要)
5.启动nn1的namenode
6.在nn2机器上同步nn1的namenode状态(仅第一次运行,以后不需要)
我们来到nn2的控制台!
7.启动nn2的namenode
还是在nn2控制台运行!!
8.启动ZKFC
这时候在nn1和nn2分别启动ZKFC,这时候两台机器的namenode,一个变成active一个变成standby!!ZKFC实现了HA高可用的自动切换!!
这时候在浏览器输入地址访问两台机器的hadoop界面
http://192.168.10.6:50070/dfshealth.html#tab-overview
http://192.168.10.7:50070/dfshealth.html#tab-overview
这两个有一个active有一个是standby状态。
9.启动dataname就是启动后三台机器
10.查看硬盘容量
打开刚才hadoop网页,查看hdfs的硬盘格式化好了没有。
这里是HDFS系统为每台实体机器的硬盘默认预留了2G(可以在配置文件hdfs-site.xml里更改),然后实际用来做hdfs的是每台机器15G,所以三台一共45G。
如图成功配置好HDFS。
版权声明: 本文为 InfoQ 作者【虚拟世界的懒猫】的原创文章。
原文链接:【http://xie.infoq.cn/article/0192a8bd59e221152105696f6】。
本文遵守【CC-BY 4.0】协议,转载请保留原文出处及本版权声明。
评论