极客时间运维训练营第九周作业
1.梳理 ceph 的各组件及功能
核心组件
Monitor(ceph-mon): 维护运行图
有 monitor map,manager map,ODS map,MDS map,CRUSH map 等多种 map。这些映射是 ceph 守护程序相互协调所需的关键集群状态。至少需要 3 个。
Manager(ceph-mgr):做监控
跟踪运行时指标和集群当前状态,包括存储利用率,当前性能指标和系统负载。托管基于 python 的模块管理和公开 ceph 集群信息。至少需要 2 个。
OSD(ceph-osd):提供数据读写
一个磁盘就是一个 OSD 守护程序,OSD 处理集群数据复制,恢复,重新平衡。至少 3 个才能实现高可用。
可选组件
MDS(Metadata server):存文件元数据
代表 ceph 文件系统存元数据,,块设备和对象存储不需要 MDS。ceph 有 3 种存储方式,分别是块存储,对象存储,以及文件存储。只有文件存储才会用到这个 MDS。
2.基于 ceph-deploy 部署 ceph 集群
遇到一些问题,切换到了 cephadm,1 failed cephadm daemon。阳了,暂时没处理。
3.梳理块存储、文件存储及对象存储的使用场景
块存储。需要先格式化为指定文件系统,再使用。一个块只能被一个服务挂载。
zookeeper 集群等,可以用于云盘,比如云主机的云盘,都是块存储,大的存储池提供的。网络至少 40G,或者 10G,100G。RBD 是块存储,可以给 KVM,vmware 等提供高性能可扩展的存储,不过需要内核的 librbd 库支持。
文件存储。走的是 cephFS,谁使用,谁挂载,新内核默认都支持。
对象存储。通过 ak 和 sk,代码层直接实现。ceph 也支持。适用于不经常变化的数据。不需要挂载,只提供 URL 和认证的 key 就可以。
4.基于 ceph 块存储实现块设备挂载及使用
5.基于 cephFS 实现多主机数据共享
待续
评论