基于 KubeSphere 快速部署 ByConity

环境准备
1. K8s 环境
我这里主要推荐 kubesphere 来部署 k8s 环境。为啥呢?
安装简单,简单三步就可以部署一个高可用的 k8s 环境
下载 KubeKey
创建并配置集群文件
编辑 config.yaml ,添加节点的 IP 、用户名、密码,并指定节点的角色

创建集群
以上步骤有问题可以参考 kubesphere 官方文档
还有一个原因就是,颜值高,可以方便管理应用。
下面是 ByConity 部署的所有的工作负载,包括 deployment、statefulset ,都可以方便查看。


2、配置存储
kubesphere 的集群安装好之后,默认有一个 local 的 storageClass

需要 将 chart 包 中 value.yaml 中 所有 的 storageClassName 由 openebs-hostpath
替换成 local
环境部署
有了 k8s 集群,现在要做的是就是 利用 helm 来部署 ByConity 了。
因为上一个步骤中,部署 kubesphere 过程中,会自动给你安装一个 helm ,所以这一步就不用安装 helm 了,如果你是用 kind 或者其他方式部署的 k8s ,记得手动安装 helm
第零步 下载 chart 包
第一步 部署 fdb-operator
byconity-fdb-operator running 后开启第二步操作

第二步 部署服务

看到 pod 都 running 起来,说明就部署成功了,我们

布署工具的使用感受 &评价
整个过程整体还是比较顺利的,有几个地方需要注意下
手动拉取镜像
fdb-operator pod 要 running 的话,依赖 4 个镜像,所以一直没有起来,需要到其对应节点,手动拉取。
手动清理 PVC
在 配置存储 步骤中,如果你 忘记 一两个 替换 storageClass ,需要你卸载 ByConity
同时要清理 错误的 PVC
发现问题
部署过程中,发现 byconity-server-0 健康检查一直失败。根据日志 发现是 ipv6 的支持问题,将 :: 改成 0.0.0.0 就可以了。
评论