写点什么

容器化 | ClickHouse on K8s 部署篇【建议收藏】

发布于: 6 小时前
容器化 | ClickHouse on K8s 部署篇【建议收藏】

作者:苏厚镇    青云科技数据库研发工程师

目前从事 RadonDB ClickHouse 相关工作,热衷于研究数据库内核。


延续上篇《容器化 ClickHouse on K8s 基本概念解析篇》,可以了解到 Operator 提供简便管理 ClickHouse 集群功能,Helm 提供便捷部署集群功能。


本篇将以部署 RadonDB ClickHouse[1] 作为示例。在同样选用 Operator 的条件下,比较 Kubectl 和 Helm 两种方式在 K8s 上部署 ClickHouse 集群的便捷性。并简要介绍如何在 K8s 上通过 Operator 轻便快速地管理 ClickHouse 集群。

| 使用 Kubectl + Operator 部署

前置条件

  • 已安装 Kubernetes 集群。

部署步骤

1 部署 RadonDB ClickHouse Operator

$ kubectl apply -f https://github.com/radondb/radondb-clickhouse-kubernetes/clickhouse-operator-install.yaml
复制代码

注意:若需 Operator 监控所有的 Kubernetes namespace,则需将其部署在 kube-system namespace 下。否则只会监控部署到的 namespace。

2 编写 CR 的部署文件

以下 yaml 文件描述了应用 RadonDB ClickHouse Operator 安装两分片两副本集群的 ClickHouse 的配置规范。

apiVersion: "clickhouse.radondb.com/v1"kind: "ClickHouseInstallation"  # 应用 Operator 创建集群metadata:  name: "ClickHouse"spec:  defaults: templates:                  # 磁盘挂载   dataVolumeClaimTemplate: data   logVolumeClaimTemplate: data  configuration:    clusters:                   # 集群节点描述,三分片两副本      - name: "replicas"        layout:          shardsCount: 2          replicasCount: 2  templates:     volumeClaimTemplates:   # 磁盘信息描述       - name: data            reclaimPolicy: Retain         spec:           accessModes:             - ReadWriteOnce           resources:             requests:               storage: 10Gi
复制代码

3 使用 Kubectl 部署

以 test 名称空间为例:

$ kubectl -n test apply -f hello-kubernetes.yamlclickhouseinstallation.clickhouse.radondb.com/ClickHouse created
复制代码

注意:若 RadonDB ClickHouse Operator 没有部署在 kube-system 中,则需要将 RadonDB ClickHouse 集群与 Operator 部署在同一名称空间。


部署成功后,Kubernetes 会将 CR 信息存入  etcd  中,而 Operator 则将感知  etcd  的变化。当 Operator 获取 CR 变化内容时,将根据 CR 的内容创建对应的 StatefulSet、Service 等相关内容。

4 查看集群的运行情况

可获取四个正在运行的 RadonDB ClickHouse Pod,组成两片两副本的集群,同时提供一个 LoadBalancer SVC,供外部访问使用。



# 查看 Pod 运行状态$ kubectl get pods -n testNAME                               READY   STATUS    RESTARTS   AGEpod/chi-ClickHouse-replicas-0-0-0   1/1     Running   0          3m13spod/chi-ClickHouse-replicas-0-1-0   1/1     Running   0          2m51spod/chi-ClickHouse-replicas-1-0-0   1/1     Running   0          2m34spod/chi-ClickHouse-replicas-1-1-0   1/1     Running   0          2m17s
# 查看 SVC 运行状态$ kubectl get service -n testNAME                                 TYPE           CLUSTER-IP      EXTERNAL-IP   PORT(S)                         AGEservice/chi-ClickHouse-replicas-0-0   ClusterIP      None            <none>        8123/TCP,9000/TCP,9009/TCP      2m53sservice/chi-ClickHouse-replicas-0-1   ClusterIP      None            <none>        8123/TCP,9000/TCP,9009/TCP      2m36sservice/chi-ClickHouse-replicas-1-0   ClusterIP      None            <none>        8123/TCP,9000/TCP,9009/TCP      2m19sservice/chi-ClickHouse-replicas-1-1   ClusterIP      None            <none>        8123/TCP,9000/TCP,9009/TCP      117sservice/clickhouse-ClickHouse         LoadBalancer   10.96.137.152   <pending>     8123:30563/TCP,9000:30615/TCP   3m14s
复制代码

至此,如何使用 Kubectl + Operator 的方式部署 RadonDB ClickHouse 集群便介绍完毕,可看到整个过程还是需要一定 K8s 知识 “功底” 的。

| 使用 Helm + Operator 部署

前置条件

  • 已安装 Kubernetes 集群;

  • 已安装 Helm 包管理工具。

部署步骤

1 添加 RadonDB ClickHouse 的 Helm 仓库

$ helm repo add ck https://radondb.github.io/radondb-clickhouse-kubernetes/$ helm repo update
复制代码

2 部署 RadonDB ClickHouse Operator

$ helm install clickhouse-operator ck/clickhouse-operator
复制代码

3 部署 RadonDB ClickHouse 集群

$ helm install clickhouse ck/clickhouse-cluster
复制代码

4 查看集群的运行情况

可获取六个正在运行的 RadonDB ClickHouse Pod,以及三个 Zookeeper Pod,组成三分片两副本的集群,同时提供一个 ClusterIP service,供访问使用。如果需要在外部对集群进行访问,此处可通过  kubectl edit service/clickhouse-ClickHouse 将 service 的类型自行修改为 NodePort 或 LoadBalancer。



# 查看 Pod 运行状态$ kubectl get pods -n testNAME                                READY   STATUS    RESTARTS   AGEpod/chi-ClickHouse-replicas-0-0-0   2/2     Running   0          3m13spod/chi-ClickHouse-replicas-0-1-0   2/2     Running   0          2m51spod/chi-ClickHouse-replicas-1-0-0   2/2     Running   0          2m34spod/chi-ClickHouse-replicas-1-1-0   2/2     Running   0          2m17spod/chi-ClickHouse-replicas-2-0-0   2/2     Running   0          115spod/chi-ClickHouse-replicas-2-1-0   2/2     Running   0          48spod/zk-clickhouse-cluster-0         1/1     Running   0          3m13spod/zk-clickhouse-cluster-1         1/1     Running   0          3m13spod/zk-clickhouse-cluster-2         1/1     Running   0          3m13s
# 查看 SVC 运行状态$ kubectl get service -n testNAME                                  TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)                         AGEservice/chi-ClickHouse-replicas-0-0   ClusterIP   None            <none>        8123/TCP,9000/TCP,9009/TCP      2m53sservice/chi-ClickHouse-replicas-0-1   ClusterIP   None            <none>        8123/TCP,9000/TCP,9009/TCP      2m36sservice/chi-ClickHouse-replicas-1-0   ClusterIP   None            <none>        8123/TCP,9000/TCP,9009/TCP      2m19sservice/chi-ClickHouse-replicas-1-1   ClusterIP   None            <none>        8123/TCP,9000/TCP,9009/TCP      117sservice/chi-ClickHouse-replicas-2-0   ClusterIP   None            <none>        8123/TCP,9000/TCP,9009/TCP      50sservice/chi-ClickHouse-replicas-2-1   ClusterIP   None            <none>        8123/TCP,9000/TCP,9009/TCP      13sservice/clickhouse-ClickHouse         ClusterIP   10.96.137.152   <none>        8123/TCP,9000/TCP               3m14sservice/zk-client-clickhouse-cluster  ClusterIP   10.107.33.51    <none>        2181/TCP,7000/TCP               3m13sservice/zk-server-clickhouse-cluster  ClusterIP   None            <none>        2888/TCP,3888/TCP               3m13s
复制代码

至此 ,通过 Helm 方式部署 RadonDB ClickHouse on Kubernetes 集群完毕,可以看到 Helm 部署方式相对更方便和简捷。简化了 CR 部署文件配置过程,无需掌握全部 Kubernetes 的 Yaml 语法和 CR 部署文件各参数含义,可以通过打包应用快速部署。

| 使用 Operator 管理 RadonDB ClickHouse 集群

上面演示了如何使用 Operator 部署 RadonDB ClickHouse 集群,下面我们来验证一下 Operator 管理集群的功能。

添加分片

如果需要给 ClickHouse 添加一个额外的分片应该怎么操作呢?此时只需要修改我们部署的 CR 即可。

$ kubectl get chi -n testNAME         CLUSTERS   HOSTS   STATUSclickhouse   1          6       Completed
$ kubectl edit chi/clickhouse -n test
复制代码


# 这里我们仅截取需要修改的内容spec:  configuration:    clusters:      - name: "replicas"        layout:          shardsCount: 4        # 将分片改为 4          replicasCount: 2
复制代码

修改成功后,Kubernetes 会将 CR 信息存入  etcd  中,而 Operator 则将感知  etcd  的变化。当 Operator 获取 CR 变化内容时,将根据 CR 的内容创建对应的 StatefulSet、Service 等相关内容。

下面查看 RadonDB ClickHouse 集群的运行情况,可以看到增加了两个 RadonDB ClickHouse Pod,完成集群分片的增加。

$ kubectl get pods -n testNAME                               READY   STATUS    RESTARTS   AGEpod/chi-ClickHouse-replicas-0-0-0   1/1     Running   0          14mpod/chi-ClickHouse-replicas-0-1-0   1/1     Running   0          14mpod/chi-ClickHouse-replicas-1-0-0   1/1     Running   0          13mpod/chi-ClickHouse-replicas-1-1-0   1/1     Running   0          13mpod/chi-ClickHouse-replicas-2-0-0   1/1     Running   0          13mpod/chi-ClickHouse-replicas-2-1-0   1/1     Running   0          12mpod/chi-ClickHouse-replicas-3-0-0   1/1     Running   0          102spod/chi-ClickHouse-replicas-3-1-0   1/1     Running   0          80s
复制代码

硬盘扩容

同样的,如果需要给 ClickHouse Pods 进行扩容,也只需修改 CR 即可。

$ kubectl get chi -n testNAME         CLUSTERS   HOSTS   STATUSclickhouse   1          8       Completed
$ kubectl edit chi/clickhouse -n test
复制代码

以修改存储容量为 20 Gi 为例。

volumeClaimTemplates:- name: data  reclaimPolicy: Retain  spec:    accessModes:    - ReadWriteOnce    resources:      requests:        storage: 20Gi 
复制代码

修改成功后,Operator 将自动申请扩容,重建 StatefulSet,并挂载扩容后的硬盘。

通过查看集群的 PVC 挂载情况,可以看到硬盘已经更新为 20Gi 容量。

$ kubectl get pvc -n clickhouseNAME                                          STATUS   VOLUME   CAPACITY   ACCESS MODESdata-chi-clickhouse-cluster-all-nodes-0-0-0   Bound    pv4      20Gi       RWO         data-chi-clickhouse-cluster-all-nodes-0-1-0   Bound    pv5      20Gi       RWO         data-chi-clickhouse-cluster-all-nodes-1-0-0   Bound    pv7      20Gi       RWO         data-chi-clickhouse-cluster-all-nodes-1-1-0   Bound    pv6      20Gi       RWO         ...
复制代码

结语

至此,我们便了解到在 Kubernetes 平台上部署 RadonDB ClickHouse 集群的两种方法,以及 Operator 管理 ClickHouse 集群的基本操作。

下期预告

有关 ClickHouse Operator 项目的更多具体细节、原理、代码架构等。尽请期待……

参考

[1]. RadonDB ClickHouse https://github.com/radondb/radondb-clickhouse-kubernetes

关于 RadonDB

RadonDB 开源社区 是一个面向云原生、容器化的数据库开源社区。为数据库技术爱好者提供围绕主流开源数据库(MySQL、PostgreSQL、Redis、MongoDB、ClickHouse 等)的技术分享平台,并提供企业级 RadonDB 开源产品及服务。


目前 RadonDB 开源数据库系列产品已被 光大银行、浦发硅谷银行、哈密银行、泰康保险、太平保险、安盛保险、阳光保险、百年人寿、安吉物流、安畅物流、蓝月亮、天财商龙、罗克佳华、升哲科技、无锡汇跑体育、北京电信、江苏交通控股、四川航空、昆明航空、国控生物 等上千家企业及社区用户采用。


RadonDB 可基于云平台与 Kubernetes 容器平台交付,不仅提供覆盖多场景的数据库产品解决方案,而且提供专业的集群管理和自动化运维能力,主要功能特性包括:高可用主从切换、数据强一致性、读写分离、一键安装部署、多维指标监控 &告警、弹性扩容 &缩容、横向自由扩展、自动备份 &恢复、同城多活、异地灾备 等。RadonDB 仅需企业及社区用户专注于业务层逻辑开发,无需关注集群高可用选型、管理和运维等复杂问题,帮助企业及社区用户大幅度提升业务开发与价值创新的效率!


GitHub:https://github.com/radondb

微信群: 请搜索添加群助手微信号 radondb

发布于: 6 小时前阅读数: 3
用户头像

https://radondb.com 2021.06.21 加入

一个面向云原生、容器化的数据库开源社区!

评论

发布
暂无评论
容器化 | ClickHouse on K8s 部署篇【建议收藏】