写点什么

极客时间运维训练营第九周作业

作者:好吃不贵
  • 2022-12-24
    浙江
  • 本文字数:657 字

    阅读完需:约 2 分钟

1.梳理 ceph 的各组件及功能

核心组件

Monitor(ceph-mon): 维护运行图

有 monitor map,manager map,ODS map,MDS map,CRUSH map 等多种 map。这些映射是 ceph 守护程序相互协调所需的关键集群状态。至少需要 3 个。

Manager(ceph-mgr):做监控

跟踪运行时指标和集群当前状态,包括存储利用率,当前性能指标和系统负载。托管基于 python 的模块管理和公开 ceph 集群信息。至少需要 2 个。

OSD(ceph-osd):提供数据读写

一个磁盘就是一个 OSD 守护程序,OSD 处理集群数据复制,恢复,重新平衡。至少 3 个才能实现高可用。

可选组件

MDS(Metadata server):存文件元数据

代表 ceph 文件系统存元数据,,块设备和对象存储不需要 MDS。ceph 有 3 种存储方式,分别是块存储,对象存储,以及文件存储。只有文件存储才会用到这个 MDS。

2.基于 ceph-deploy 部署 ceph 集群

遇到一些问题,切换到了 cephadm,1 failed cephadm daemon。阳了,暂时没处理。

3.梳理块存储、文件存储及对象存储的使用场景

块存储。需要先格式化为指定文件系统,再使用。一个块只能被一个服务挂载。

zookeeper 集群等,可以用于云盘,比如云主机的云盘,都是块存储,大的存储池提供的。网络至少 40G,或者 10G,100G。RBD 是块存储,可以给 KVM,vmware 等提供高性能可扩展的存储,不过需要内核的 librbd 库支持。

文件存储。走的是 cephFS,谁使用,谁挂载,新内核默认都支持。

对象存储。通过 ak 和 sk,代码层直接实现。ceph 也支持。适用于不经常变化的数据。不需要挂载,只提供 URL 和认证的 key 就可以。

4.基于 ceph 块存储实现块设备挂载及使用




5.基于 cephFS 实现多主机数据共享

待续

用户头像

好吃不贵

关注

还未添加个人签名 2018-11-20 加入

还未添加个人简介

评论

发布
暂无评论
极客时间运维训练营第九周作业_好吃不贵_InfoQ写作社区