运维进阶训练营 -W09H
梳理 ceph 的各组件及功能
RADOS cluster:由多台 host 存储服务器组成的 ceph 集群
OSD(Object Storage Daemon):每台存储服务器的磁盘组成的存储空间
Mon(Monitor):ceph 的监视器,维护 OSD 和 PG 的集群状态,一个 ceph 集群至少要有一个
mon,可以是一三五七等等这样的奇数个。
Mgr(Manager):负责跟踪运行时指标和 Ceph 集群的当前状态,包括存储利用率,当前性
能指标和系统负载等。
基于 ceph-deploy 部署 ceph 集群
https://github.com/ceph/ceph-deploy #python
梳理块存储、文件存储及对象存储的使用场景
块存储:
块存储在使用的时候需要格式化为指定的文件系统,然后挂载使用,其对操作系统的兼容性
相对比较好(可以格式化为操作系统支持的文件系统),挂载的时候通常是每个服务单独分配
独立的块存储,即各服务的块存储是独立且不共享使用的,如 Redis 的 master 和 slave 的
块存储是独立的、zookeeper 各节点的快存储是独立的、MySQL 的 master 和 slave 的块存
储是独立的、也可以用于私有云与公有云的虚拟机的系统盘和云盘等场景,此类场景适合使
用块存储。
cephFS:
对于需要在多个主机实现数据共享的场景,比如多个 nginx 读取由多个 tomcat 写入到存储
的数据,可以使用 ceph FS。
对象存储:
而对于数据不会经常变化、删除和修改的场景,如短视频、APP 下载等,可以使用对象存
储
基于 ceph 块存储实现块设备挂载及使用
4.1.1:创建 RBD:
4.1.2:创建并验证 img:
4.1.3:客户端使用块存储:
4.1.3.1:当前 ceph 状态:
4.1.3.2:在客户端安装 ceph-common:
4.1.3.3:客户端映射 img:
4.1.3.4:客户端验证 RBD:
4.1.3.5:客户端格式化磁盘并挂载使用:
4.1.3.6:客户端验证:
4.1.3.7:ceph 验证数据:
4.1.3.8: 删除数据:
4.2.2:验证 radosgw 服务:
4.2.3:验证 ceph 状态:
4.2.4:验证 radosgw 存储池:
基于 cephFS 实现多主机数据共享
4.3.1:部署 MDS 服务:
4.3.2:验证 MDS 服务:
4.3.3:创建 CephFS metadata 和 data 存储池:
4.3.4:创建 cephFS 并验证:
4.3.5:验证 cepfFS 服务状态:
4.3.6:客户端挂载 cephFS:
版权声明: 本文为 InfoQ 作者【赤色闪电】的原创文章。
原文链接:【http://xie.infoq.cn/article/632bd8431f8d99423cc3faee3】。未经作者许可,禁止转载。
评论