写点什么

Hadoop3 环境搭建

用户头像
yuanhang
关注
发布于: 2020 年 09 月 10 日

伪分布集群环境搭建

1.下载 Hadoop

http://hadoop.apache.org/

--> Download --> Apache release archive --> hadoop-3.2.0 --> hadoop-3.2.0.tar.gz

国内镜像

https://mirrors.tuna.tsinghua.edu.cn/apache

2.安装伪分布式集群

1.设置静态 IP

vi /etc/sysconfg/network-scripts/ifcfg-ens33
BOOTPROTO=static
IPADDR=192.168.188.100 # IP
GATEWAY=192.168.188.2 # 网关 IP
DNS1=192.168.188.2
service network restart
ip addr

2.修改 hostname

vi /etc/hostname
bigdata01
hostname

3.关闭防火墙

systemctl disable firewalld

4.ssh 免密登录

ssh-keygen -t rsa
一路回车
ll ~/.ssh
# 将公钥重定向输出到 authorized_keys 文件中
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

5.配置 JDK

vi /etc/profile
export JAVA_HOME=/data/soft/jdk1.8
export PATH=.:$JAVA_HOME/bin:$PATH
source /etc/profile
java -version

6.配置 Hadoop 环境变量

vi /etc/profile
export HADOOP_HOME=/data/soft/hadoop-3.2.0
export PATH=.:$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile

7.修改 Hadoop 配置文件

hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml、workers

vi hadoop-env.sh
export JAVA_HOME=/data/soft/jdk1.8
export HADOOP_LOG_DIR=/data/hadoop_repo/logs/hadoop
vi core-site.xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://bigdata01:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/data/hadoop_repo</value>
</property>
vi hdfs-site.xml
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>bigdata01:50090</value>
</property>
vi mapred-site.xml
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
vi yarn-site.xml
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.env-whitelist</name>
<value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>bigdata01</value>
</property>
vi workers
bigdata02
bigdata03
cd ../../sbin
vi start-dfs.sh
HDFS_DATANODE_USER=root
HDFS_DATANODE_SECURE_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root
# Start hadoop dfs daemons.
vi stop-dfs.sh
HDFS_DATANODE_USER=root
HDFS_DATANODE_SECURE_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root
vi start-yarn.sh
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
vi stop-yarn.sh
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
cd /data/soft
scp -rq hadoop-3.2.0 bigdata02:/data/soft
scp -rq hadoop-3.2.0 bigdata03:/data/soft
cd hadoop-3.2.0
bin/hdfs namenode -format
sbin/start-all.sh
jps



分布式集群搭建

1.克隆

2.修改IP

3.修改hostname

4.关闭防火墙

5.单节点免密登录

6.jdk

7./etc/hosts

8.时间同步,放在定时任务中

9.主节点免密登录从节点

10.配置hadoop



发布于: 2020 年 09 月 10 日阅读数: 62
用户头像

yuanhang

关注

坚定而执着的向生活索取宽广而伟大的梦想 2018.09.18 加入

一直在努力的路上的全栈工程师

评论

发布
暂无评论
Hadoop3 环境搭建