作者:苏厚镇    青云科技数据库研发工程师
目前从事 RadonDB ClickHouse 相关工作,热衷于研究数据库内核。
延续上篇《容器化 ClickHouse on K8s 基本概念解析篇》,可以了解到 Operator 提供简便管理 ClickHouse 集群功能,Helm 提供便捷部署集群功能。
本篇将以部署 RadonDB ClickHouse[1] 作为示例。在同样选用 Operator 的条件下,比较 Kubectl 和 Helm 两种方式在 K8s 上部署 ClickHouse 集群的便捷性。并简要介绍如何在 K8s 上通过 Operator 轻便快速地管理 ClickHouse 集群。
| 使用 Kubectl + Operator 部署
前置条件
部署步骤
1 部署 RadonDB ClickHouse Operator
 $ kubectl apply -f https://github.com/radondb/radondb-clickhouse-kubernetes/clickhouse-operator-install.yaml
       复制代码
 注意:若需 Operator 监控所有的 Kubernetes namespace,则需将其部署在 kube-system namespace 下。否则只会监控部署到的 namespace。
2 编写 CR 的部署文件
以下 yaml 文件描述了应用 RadonDB ClickHouse Operator 安装两分片两副本集群的 ClickHouse 的配置规范。
 apiVersion: "clickhouse.radondb.com/v1"kind: "ClickHouseInstallation"  # 应用 Operator 创建集群metadata:  name: "ClickHouse"spec:  defaults: templates:                  # 磁盘挂载   dataVolumeClaimTemplate: data   logVolumeClaimTemplate: data  configuration:    clusters:                   # 集群节点描述,三分片两副本      - name: "replicas"        layout:          shardsCount: 2          replicasCount: 2  templates:     volumeClaimTemplates:   # 磁盘信息描述       - name: data            reclaimPolicy: Retain         spec:           accessModes:             - ReadWriteOnce           resources:             requests:               storage: 10Gi
       复制代码
 3 使用 Kubectl 部署
以 test 名称空间为例:
 $ kubectl -n test apply -f hello-kubernetes.yamlclickhouseinstallation.clickhouse.radondb.com/ClickHouse created
       复制代码
 注意:若 RadonDB ClickHouse Operator 没有部署在 kube-system 中,则需要将 RadonDB ClickHouse 集群与 Operator 部署在同一名称空间。
部署成功后,Kubernetes 会将 CR 信息存入  etcd  中,而 Operator 则将感知  etcd  的变化。当 Operator 获取 CR 变化内容时,将根据 CR 的内容创建对应的 StatefulSet、Service 等相关内容。
4 查看集群的运行情况
可获取四个正在运行的 RadonDB ClickHouse Pod,组成两片两副本的集群,同时提供一个 LoadBalancer SVC,供外部访问使用。
 # 查看 Pod 运行状态$ kubectl get pods -n testNAME                               READY   STATUS    RESTARTS   AGEpod/chi-ClickHouse-replicas-0-0-0   1/1     Running   0          3m13spod/chi-ClickHouse-replicas-0-1-0   1/1     Running   0          2m51spod/chi-ClickHouse-replicas-1-0-0   1/1     Running   0          2m34spod/chi-ClickHouse-replicas-1-1-0   1/1     Running   0          2m17s
# 查看 SVC 运行状态$ kubectl get service -n testNAME                                 TYPE           CLUSTER-IP      EXTERNAL-IP   PORT(S)                         AGEservice/chi-ClickHouse-replicas-0-0   ClusterIP      None            <none>        8123/TCP,9000/TCP,9009/TCP      2m53sservice/chi-ClickHouse-replicas-0-1   ClusterIP      None            <none>        8123/TCP,9000/TCP,9009/TCP      2m36sservice/chi-ClickHouse-replicas-1-0   ClusterIP      None            <none>        8123/TCP,9000/TCP,9009/TCP      2m19sservice/chi-ClickHouse-replicas-1-1   ClusterIP      None            <none>        8123/TCP,9000/TCP,9009/TCP      117sservice/clickhouse-ClickHouse         LoadBalancer   10.96.137.152   <pending>     8123:30563/TCP,9000:30615/TCP   3m14s
       复制代码
 至此,如何使用 Kubectl + Operator 的方式部署 RadonDB ClickHouse 集群便介绍完毕,可看到整个过程还是需要一定 K8s 知识 “功底” 的。
| 使用 Helm + Operator 部署
前置条件
已安装 Kubernetes 集群;
已安装 Helm 包管理工具。
部署步骤
1 添加 RadonDB ClickHouse 的 Helm 仓库
 $ helm repo add ck https://radondb.github.io/radondb-clickhouse-kubernetes/$ helm repo update
       复制代码
 2 部署 RadonDB ClickHouse Operator
 $ helm install clickhouse-operator ck/clickhouse-operator
       复制代码
 3 部署 RadonDB ClickHouse 集群
 $ helm install clickhouse ck/clickhouse-cluster
       复制代码
 4 查看集群的运行情况
可获取六个正在运行的 RadonDB ClickHouse Pod,以及三个 Zookeeper Pod,组成三分片两副本的集群,同时提供一个 ClusterIP service,供访问使用。如果需要在外部对集群进行访问,此处可通过  kubectl edit service/clickhouse-ClickHouse 将 service 的类型自行修改为 NodePort 或 LoadBalancer。
 # 查看 Pod 运行状态$ kubectl get pods -n testNAME                                READY   STATUS    RESTARTS   AGEpod/chi-ClickHouse-replicas-0-0-0   2/2     Running   0          3m13spod/chi-ClickHouse-replicas-0-1-0   2/2     Running   0          2m51spod/chi-ClickHouse-replicas-1-0-0   2/2     Running   0          2m34spod/chi-ClickHouse-replicas-1-1-0   2/2     Running   0          2m17spod/chi-ClickHouse-replicas-2-0-0   2/2     Running   0          115spod/chi-ClickHouse-replicas-2-1-0   2/2     Running   0          48spod/zk-clickhouse-cluster-0         1/1     Running   0          3m13spod/zk-clickhouse-cluster-1         1/1     Running   0          3m13spod/zk-clickhouse-cluster-2         1/1     Running   0          3m13s
# 查看 SVC 运行状态$ kubectl get service -n testNAME                                  TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)                         AGEservice/chi-ClickHouse-replicas-0-0   ClusterIP   None            <none>        8123/TCP,9000/TCP,9009/TCP      2m53sservice/chi-ClickHouse-replicas-0-1   ClusterIP   None            <none>        8123/TCP,9000/TCP,9009/TCP      2m36sservice/chi-ClickHouse-replicas-1-0   ClusterIP   None            <none>        8123/TCP,9000/TCP,9009/TCP      2m19sservice/chi-ClickHouse-replicas-1-1   ClusterIP   None            <none>        8123/TCP,9000/TCP,9009/TCP      117sservice/chi-ClickHouse-replicas-2-0   ClusterIP   None            <none>        8123/TCP,9000/TCP,9009/TCP      50sservice/chi-ClickHouse-replicas-2-1   ClusterIP   None            <none>        8123/TCP,9000/TCP,9009/TCP      13sservice/clickhouse-ClickHouse         ClusterIP   10.96.137.152   <none>        8123/TCP,9000/TCP               3m14sservice/zk-client-clickhouse-cluster  ClusterIP   10.107.33.51    <none>        2181/TCP,7000/TCP               3m13sservice/zk-server-clickhouse-cluster  ClusterIP   None            <none>        2888/TCP,3888/TCP               3m13s
       复制代码
 至此 ,通过 Helm 方式部署 RadonDB ClickHouse on Kubernetes 集群完毕,可以看到 Helm 部署方式相对更方便和简捷。简化了 CR 部署文件配置过程,无需掌握全部 Kubernetes 的 Yaml 语法和 CR 部署文件各参数含义,可以通过打包应用快速部署。
| 使用 Operator 管理 RadonDB ClickHouse 集群
上面演示了如何使用 Operator 部署 RadonDB ClickHouse 集群,下面我们来验证一下 Operator 管理集群的功能。
添加分片
如果需要给 ClickHouse 添加一个额外的分片应该怎么操作呢?此时只需要修改我们部署的 CR 即可。
 $ kubectl get chi -n testNAME         CLUSTERS   HOSTS   STATUSclickhouse   1          6       Completed
$ kubectl edit chi/clickhouse -n test
       复制代码
 
 # 这里我们仅截取需要修改的内容spec:  configuration:    clusters:      - name: "replicas"        layout:          shardsCount: 4        # 将分片改为 4          replicasCount: 2
       复制代码
 修改成功后,Kubernetes 会将 CR 信息存入  etcd  中,而 Operator 则将感知  etcd  的变化。当 Operator 获取 CR 变化内容时,将根据 CR 的内容创建对应的 StatefulSet、Service 等相关内容。
下面查看 RadonDB ClickHouse 集群的运行情况,可以看到增加了两个 RadonDB ClickHouse Pod,完成集群分片的增加。
 $ kubectl get pods -n testNAME                               READY   STATUS    RESTARTS   AGEpod/chi-ClickHouse-replicas-0-0-0   1/1     Running   0          14mpod/chi-ClickHouse-replicas-0-1-0   1/1     Running   0          14mpod/chi-ClickHouse-replicas-1-0-0   1/1     Running   0          13mpod/chi-ClickHouse-replicas-1-1-0   1/1     Running   0          13mpod/chi-ClickHouse-replicas-2-0-0   1/1     Running   0          13mpod/chi-ClickHouse-replicas-2-1-0   1/1     Running   0          12mpod/chi-ClickHouse-replicas-3-0-0   1/1     Running   0          102spod/chi-ClickHouse-replicas-3-1-0   1/1     Running   0          80s
       复制代码
 硬盘扩容
同样的,如果需要给 ClickHouse Pods 进行扩容,也只需修改 CR 即可。
 $ kubectl get chi -n testNAME         CLUSTERS   HOSTS   STATUSclickhouse   1          8       Completed
$ kubectl edit chi/clickhouse -n test
       复制代码
 以修改存储容量为 20 Gi 为例。
 volumeClaimTemplates:- name: data  reclaimPolicy: Retain  spec:    accessModes:    - ReadWriteOnce    resources:      requests:        storage: 20Gi 
       复制代码
 修改成功后,Operator 将自动申请扩容,重建 StatefulSet,并挂载扩容后的硬盘。
通过查看集群的 PVC 挂载情况,可以看到硬盘已经更新为 20Gi 容量。
 $ kubectl get pvc -n clickhouseNAME                                          STATUS   VOLUME   CAPACITY   ACCESS MODESdata-chi-clickhouse-cluster-all-nodes-0-0-0   Bound    pv4      20Gi       RWO         data-chi-clickhouse-cluster-all-nodes-0-1-0   Bound    pv5      20Gi       RWO         data-chi-clickhouse-cluster-all-nodes-1-0-0   Bound    pv7      20Gi       RWO         data-chi-clickhouse-cluster-all-nodes-1-1-0   Bound    pv6      20Gi       RWO         ...
       复制代码
 结语
至此,我们便了解到在 Kubernetes 平台上部署 RadonDB ClickHouse 集群的两种方法,以及 Operator 管理 ClickHouse 集群的基本操作。
下期预告
有关 ClickHouse Operator 项目的更多具体细节、原理、代码架构等。尽请期待……
参考
[1]. RadonDB ClickHouse https://github.com/radondb/radondb-clickhouse-kubernetes
关于 RadonDB
RadonDB 开源社区 是一个面向云原生、容器化的数据库开源社区。为数据库技术爱好者提供围绕主流开源数据库(MySQL、PostgreSQL、Redis、MongoDB、ClickHouse 等)的技术分享平台,并提供企业级 RadonDB 开源产品及服务。
目前 RadonDB 开源数据库系列产品已被 光大银行、浦发硅谷银行、哈密银行、泰康保险、太平保险、安盛保险、阳光保险、百年人寿、安吉物流、安畅物流、蓝月亮、天财商龙、罗克佳华、升哲科技、无锡汇跑体育、北京电信、江苏交通控股、四川航空、昆明航空、国控生物 等上千家企业及社区用户采用。
RadonDB 可基于云平台与 Kubernetes 容器平台交付,不仅提供覆盖多场景的数据库产品解决方案,而且提供专业的集群管理和自动化运维能力,主要功能特性包括:高可用主从切换、数据强一致性、读写分离、一键安装部署、多维指标监控 &告警、弹性扩容 &缩容、横向自由扩展、自动备份 &恢复、同城多活、异地灾备 等。RadonDB 仅需企业及社区用户专注于业务层逻辑开发,无需关注集群高可用选型、管理和运维等复杂问题,帮助企业及社区用户大幅度提升业务开发与价值创新的效率!
GitHub:https://github.com/radondb
微信群: 请搜索添加群助手微信号 radondb
评论