Hadoop集群搭建-05安装配置YARN
Hadoop集群搭建-04安装配置HDFS
Hadoop集群搭建-03编译安装hadoop
Hadoop集群搭建-02安装配置Zookeeper
Hadoop集群搭建-01前期准备
整个搭建hadoop集群的流程,包括
前期准备
安装zookeeper并配置环境
编译安装hadoop并启动
安装HDFS管理namenode和dataname管理集群硬盘资源
安装启动yarn建立MapReduce管理cpu和内存资源
01前期准备:
1.部署环境
首先启动一台centos7的虚拟机,配置华为云yum源
[root@localhost ~]
[root@localhost ~]
[root@localhost ~]
[root@localhost ~]
[root@localhost ~]
然后安装一些乱七八糟的常用软件
2.关闭虚拟机的防火墙和SELinux设置
[root@localhost ~]
[root@localhost ~]
[root@localhost ~]
[root@localhost ~]
[root@localhost ~]
[root@localhost ~]
SELINUX=disabled
[root@localhost ~]
3.安装jdk8并配置环境变量
下载地址http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
[root@localhost ~]
[root@localhost ~]
export JAVA_HOME=/usr/java/jdk1.8.0_144
export JRE_HOME=$JAVA_HOME/jre
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
修改后只是对应此次用户此次会话生效,希望永久全局生效,就要
4.安装ntpdate服务,每次虚拟机挂起重新启用后方便同步时间
[root@localhost ~]
[root@localhost ~]
5.创建hadoop用户和用户组并加入wheel组
[root@localhost ~]# useradd hadoop
[root@localhost ~]# passwd hadoop
只允许wheel组内用户可以通过su - root命令登录root用户,提高安全性
[root@localhost ~]
[root@localhost ~]
[root@localhost ~]
添加hadoop用户进wheel组
[root@localhost ~]
[root@localhost ~]
6.配置虚拟机的hosts文件
[root@localhost ~]
192.168.10.3 nn1.hadoop
192.168.10.4 nn2.hadoop
192.168.10.5 s1.hadoop
192.168.10.6 s2.hadoop
192.168.10.7 s3.hadoop
7.用虚拟机克隆功能克隆另外4台虚拟机
完成后分别更改每一台的主机名并配置静态ip,要求和上面hosts文件内的一致并对应
[root@localhost ~]
[root@localhost ~]
TYPE="Ethernet"
PROXY_METHOD="none"
BROWSER_ONLY="no"
BOOTPROTO="static"
IPADDR="192.168.10.3"
NETMASK="255.255.255.0"
GATEWAY="192.168.10.2"
DNS="192.168.10.2"
NM_CONTROLLED="no"
DEFROUTE="yes"
IPV4_FAILURE_FATAL="no"
IPV6INIT="yes"
IPV6_AUTOCONF="yes"
IPV6_DEFROUTE="yes"
IPV6_FAILURE_FATAL="no"
IPV6_ADDR_GEN_MODE="stable-privacy"
NAME="ens33"
UUID="49f05112-b80b-45c2-a3ec-d64c76ed2d9b"
DEVICE="ens33"
ONBOOT="yes"
[root@localhost ~]
[root@localhost ~]
[root@localhost ~]
至此我们应该有五台虚拟机,都按照如下ip和主机名配置对应好,五台都设置好了hosts文件
192.168.10.3 nn1.hadoop
192.168.10.4 nn2.hadoop
192.168.10.5 s1.hadoop
192.168.10.6 s2.hadoop
192.168.10.7 s3.hadoop
然后防火墙、selinux都已经关闭,都正确安装jdk8并配置好环境变量,都正确新建了hadoop用户组并将其添加进wheel组。
8.配置五台机器互相ssh免密登录
上边的操作都是在root用户下进行的,现在切换到hadoop用户下进行以后的几乎所有操作。
[root@nn1 ~]
[hadoop@nn1 ~]$ 这时候代表进入到了hadoop用户,还有
开始搭建ssh免密
思路是首先在每一台机器上分别创建各自的key,最后把这些key.pub汇总到~/.ssh/authorized_keys文件中再一起分发给所有机器,这时候就实现了五台机器的互相免密ssh访问。
[hadoop@nn1 ~]$ pwd 查看当前路径,确保在hadoop用户的home下
/home/hadoop
[hadoop@nn1 ~]$ mkdir .ssh
[hadoop@nn1 ~]$ chmod 700 ./.ssh
[hadoop@nn1 ~]$ ll -a
drwx------ 2 hadoop hadoop 132 7月 16 22:13 .ssh
[hadoop@nn1 ~]$ ssh-keygen -t rsa 创建key文件
这时候完成了nn1机器的设置(nn1作为我们以后的主要操作机器)。按照上边的步骤把剩下的4台机器也弄好,然后分别把其他的4台机器的./ssh/id_rsa.pub重命名(防止重复和以外替换),再发送到nn1的./ssh/下
[hadoop@nn2 ~]$ scp ~/.ssh/id_rsa.pub hadoop@nn1.hadoop ~/.ssh/id_rsa.pubnn2
这时候nn1的~/.ssh/下应该有包括自己在内的5个pub文件(不重名),然后把他们都追加到下边的文件中
[hadoop@nn1 ~]$ touch authorized_keys
[hadoop@nn1 ~]$ chmod 600 authorized_keys
[hadoop@nn1 ~]$ cat ./ssh/id_rsa.pub >> authorized_keys
[hadoop@nn1 ~]$ cat ./ssh/id_rsa.pubnn2 >> authorized_keys
[hadoop@nn1 ~]$ cat ./ssh/id_rsa.pubs1 >> authorized_keys
…………
然后最后把这个文件批量发送到其余4台机器上(忘了写批量脚本了,所以用scp命令依次发送吧)
至此5台机器的ssh免密互相访问配置结束,我们可以分别测试(略)。
9.批量脚本编写
因为有5台机器啊,很多操作都要一起动,所以需要批量执行脚本。
"nn1.hadoop" "nn2.hadoop" "s1.hadoop" "s2.hadoop" "s3.hadoop"
#!/bin/bash
RUN_HOME=$(cd "$(dirname "$0")"; echo "${PWD}")
NOW_LIST=(`cat ${RUN_HOME}/ips`)
SSH_USER="hadoop"
for i in ${NOW_LIST[@]}; do
f_cmd="ssh $SSH_USER@$i \"$*\""
echo $f_cmd
if eval $f_cmd; then
echo "OK"
else
echo "FAIL"
fi
done
#!/bin/bash
RUN_HOME=$(cd "$(dirname "$0")"; echo "${PWD}")
NOW_LIST=(`cat ${RUN_HOME}/ips`)
SSH_USER="hadoop"
for i in ${NOW_LIST[@]}; do
f_cmd="ssh $SSH_USER@i ~/exe.sh \"$*\""
echo $f_cmd
if eval $f_cmd; then
echo "OK"
else
echo "FAIL"
fi
done
#!/bin/bash
RUN_HOME=$(cd "(dirname "$0")"; echo "${PWD}")
NOW_LIST=(`cat ${UN_HOME}/ips`)
SSH_USER="hadoop"
for i in ${NOW_LIST[@]}; do
f_cmd="scp $1 $SSH_USER@i:$2"
echo $f_cmd
if eval $f_cmd; then
echo "ok"
else
echo "FAIL"
fi
done
前期准备工作结束,下一篇开始安装配置zookeeper
评论