Ceph 实战(二)- 高可用集群部署
4、配置 hosts 解析
分别在三台服务器上执行以下命令:
$ vim /etc/hosts
在上述文件中增加以下内容:
192.168.1.198 node1
192.168.1.199 node2
192.168.1.200 node3
让配置生效,命令如下:
$ source /etc/hosts
到此三台服务器 hosts 解析配置完成。
5、时间同步
分别在三台服务器上执行以下命令:
$ yum install ntp ntpdate -y
$ ntpdate 0.asia.pool.ntp.org
$ hwclock --systohc
分别在三台服务器上增加时间同步定时任务,执行以下命令:
$ crontab -e
在定时任务配置文件中增加以下内容:
*/5 * * * * ntpdate 0.asia.pool.ntp.org
到此三台服务器时间同步配置完成。
6、配置 python2.7 环境
Ceph 必须在有 Python 的环境下才能进行安装,这里我们配置 Python2.7,分别在三台服务器上执行以下命令:
$ cd /tmp
$ wget https://files.pythonhost 《一线大厂 Java 面试题解析+后端开发学习笔记+最新架构讲解视频+实战项目源码讲义》无偿开源 威信搜索公众号【编程进阶路】 ed.org/packages/ed/69/c805067de1feedbb98c53174b0f2df44cc05e0e9ee73bb85eebc59e508c6/setuptools-41.0.0.zip
$ unzip setuptools-41.0.0.zip
$ cd setuptools-41.0.0
$ python setup.py install
$ tar zxf pip-19.0.3.tar.gz
$ cd pip-19.0.3
$ python setup.py install
到此三台服务器 Python2.7 环境配置完成。
7、配置免密登录
为了方便我们做集群部署,需要对 deploy 节点(192.168.1.198)配置免密登陆,在 deploy 节点(192.168.1.198)执行以下命令:
$ ssh-keygen -t rsa -P ""
$ ssh-copy-id 192.168.1.198
$ ssh-copy-id 192.168.1.199
$ ssh-copy-id 192.168.1.200
$ ssh node1
$ ssh node2
$ ssh node3
到此 deploy(192.168.1.198)节点免密登录配置完成。
8、安装 ceph
在 deploy 节点(192.168.1.198)执行以下命令:
$ yum -y install ceph-deploy
$ ceph-deploy --version
$ mkdir /ceph-install && cd /ceph-install/
$ ceph-deploy new node1 node2 node3
配置 ceph.conf,执行以下命令:
$ vim?./ceph.conf
然后在上述文件中添加以下内容:?
[global]
...
如果有多个网卡,应该配置如下选项,
public network 是公共网络,负责集群对外提供服务的流量
cluster network 是集群网络,负载集群中数据复制传输通信等
本次实验使用同一块网卡,生境环境建议分别使用一块网卡
public network = 192.168.1.0/24
cluster network = 192.168.1.0/24
在 deploy 节点(192.168.1.198)执行以下命令安装 ceph 并初始化 mon 监控,命令如下:
$ cd /ceph-install/
$ ceph-deploy install node1 node2 node3 --nogpgcheck
$ ceph-deploy --overwrite-conf config push node1 node2 node3
$ ceph-deploy --overwrite-conf mon create node1 node2 node3
$ ceph-deploy mon create-initial
然后我们需要把?/ceph-install/?下的秘钥文件复制到 /etc/ceph/?目录,这样才能在 deploy 节点(192.168.1.198)正常执行 ceph 集群命令,命令如下:
$ cd /ceph-install/
$ cp *.keyring /etc/ceph/
9、创建 osd
我们在 deploy 节点(192.168.1.198)创建三台服务器的 osd,命令如下:
ceph-deploy osd create node1 --data /dev/sdb
ceph-deploy osd create node2 --data /dev/sdb
ceph-deploy osd create node3 --data /dev/sdb
如果你每台机器上有三块硬盘,可以把第二块、第三块硬盘拿来创建 osd,可以执行以下命令:
ceph-deploy osd create node1 --data /dev/sdb
ceph-deploy osd create node1 --data /dev/sdc
ceph-deploy osd create node2 --data /dev/sdb
ceph-deploy osd create node2 --data /dev/sdc
ceph-deploy osd create node3 --data /dev/sdb
ceph-deploy osd create node3 --data /dev/sdc
到此我们完成了三台服务器 osd 的创建。
10、同步 admin 密钥
我们的 admin 密钥存在于 deploy 节点,所以我们在 deploy 节点上执行以下命令:
$ ceph-deploy --overwrite-conf admin node1 node2 node3
到此我们同步了 admin 密钥到三台服务器上。
11、部署 mgr?
在 deploy 节点上执行以下命令:
$ ceph-deploy mgr create node1 node2 node3
到此我们完成了三台服务器的 mgr 部署。?
注意:如果安装过程出错,使用以下命令清理之后重新开始:
$ ceph-deploy purge lab1 lab2 lab3
$ ceph-deploy purgedata lab1 lab2 lab3
$ ceph-deploy forgetkeys
$ rm ceph.*
三、验证
我们通过执行以下命令查看集群部署情况,命令如下:
$ ceph -s
集群部署情况,图示如下:
?
如果此时集群的 health 并不是 HEALTH_OK,可以执行以下命令来查看问题详情,命令如下:$ ceph health detail 到此 Ceph 高可用集群部署完成。
评论