从字节跳动到火山引擎(一) | Redis 云原生实践
Redis 是开发者日常工作中经常使用的典型 KV 存储,常年位居 DB-Engines Key-Value 存储第一。这是一种基于内存的存储,提供了丰富的数据结构,支持字符串类型、哈希/列表/集合类型以及 stream 结构。
Redis 内置很多特性,其中比较重要的有:
复制:Redis 支持异步的全量和增量同步,可以把数据从 Master 复制到 Slave, 实现 Redis 数据的高可用;
持久化:支持数据的持久化,可以通过 RDB 和 AOF 机制实现数据落盘;
支持哨兵工具:哨兵工具的主要工作模式是监控 Master 节点的健康状况。当发现 Master 节点不可用时,它会主动执行 Failover, 把 Slave 节点提升成 Master,保证 Redis 服务的高可用;
提供集群模式:单体 Redis 实例受限于物理机内存,需要较大 Redis 集群容量时,开发者可使用 Redis 集群模式。该模式的原理是对保存在其中的数据进行分片,每一部分数据由不同的 Redis 实例承担。
Redis 的典型应用场景有以下 3 种:
缓存:因为 Redis 是基于内存的存储,它的读写请求会在内存执行,请求响应的延迟很低,所以企业在很多场景下会把 Redis 当做缓存使用;
数据库:Redis 支持持久化,可以被作为 KV 数据库使用;
消息队列:Redis 支持 stream 数据,在 stream 数据结构基础上封装了 pub-sub 命令,实现了数据的发布和订阅,即提供了消息队列的基本功能。
Redis 协议是二进制安全的文本协议。它很简单,可以通过 telnet 连接到一个 Redis server 实例上执行 get 和 set 操作。
Kubernetes 简介
Kubernetes(K8s)是一个容器编排系统,可以自动化容器应用的部署、扩展和管理。它提供了一些基础特性:
自动装箱:开发者可指定 K8s 里 Pod 所需资源的最小值和最大值,即 limit 和 request 的值,而后,K8s 会根据 request 的值做 Pod 调度,在一个节点上拉起 Pod;
服务发现与负载均衡:K8s 提供基于 DNS 的服务发现机制,同时也提供基于 service 的负载均衡;
自动化上线和回滚:K8s 针对不同业务场景提供多种不同的工作负载资源:支持 Deployment/DaemonSet、支持 StatefulSet、支持 CronJob/Job。这些工作负载资源可实现服务的配置变更,如更新 image、升级 binary、进行副本扩缩容等;
水平扩缩容:K8s 天然支持水平扩缩容,可以基于 Pod 的 CPU 利用率、内存利用率以及第三方自定义 metrics 对 Pod 进行水平动态扩缩容;
存储编排:K8s 支持基于 PV 和 PVC 的存储供应模式,可以通过 PV 和 PVC 在 Pod 内部使用存储;
自我修复:最典型的一个例子是副本保持,如用 Deployment 来托管一个服务,若 Deployment 下的一个 Pod 所在的宿主机出现不可用的情况, K8s 会在可用的节点上重新拉起一个新的 Pod 来提供服务。
现实工作中,开发者遇到的服务可根据是否需要数据持久化,分为有状态服务和无状态服务。不需要数据持久化的服务被认为是无状态的,主要包含以下几种类型:
API 类服务:可在任意节点上执行。如果要在 K8s 上部署这类服务,可使用 K8s Deployment;
Agent 或 Deamon 类服务:需要部署在每一台机器上,而且每台机器上最多部署一个进程。在 K8s 上可选择 DaemonSet 来完成对应部署;
对固定的唯一标识有需求的无状态服务。要满足这些需求,可使用 K8s 的 StatefulSet 来满足。虽然 StatefulSet 是用来部署有状态服务的,但它可提供固定的唯一标识,也可用来托管无状态服务。
有状态服务需要稳定的持久化存储,除此之外,它们可能还会有一些其他的特性要求:
稳定的唯一标识;
有序、优雅的部署和缩放;
有序的自动滚动更新。
在 K8s 上,我们一般会用 StatefulSet resource 来托管有状态服务。
火山引擎 Redis 云原生实践
在字节跳动和火山引擎,研发团队开展 Redis 云原生实践的目标主要有以下几个:
资源的抽象和交付由 K8s 完成,无需关注具体机型。在物理机时代,开发者往往需要根据不同机型的 CPU 和内存配置来决定可部署的 Redis 实例数量。通过 Redis 云原生,现在我们只需提供和 K8s 声明需要的 CPU 和内存大小,剩下的调度、资源供给、机器筛选均可交由 K8s 来完成。
节点的调度由 K8s 完成。在实际部署一个 Redis 集群时,为保证高可用,需要让 Redis 集群的一些组件满足一定的放置策略。而为了满足放置策略,在物理机时代,开发者需要靠运维系统完成机器的筛选以及计算的逻辑,这个逻辑相对比较复杂。K8s 本身提供丰富的调度能力,可以轻松实现放置策略,从而降低运维系统的负担。
节点的管理和状态保持由 K8s 完成。在物理机时代,如果某台物理机挂了,开发人员需要通过运维系统介入了解其上部署的服务和组件,然后在另外的可用节点上重新拉起新节点,填补因宕机缺少的节点。如果由 K8s 来完成节点的管理和状态的保持,整个运维系统的复杂度会大大降低。
此外,标准化 Redis 的部署和运维的模式,有助于减少人工介入,提升运维自动化能力,这也是字节跳动和火山引擎开展 Redis 云原生实践最重要的目标之一。
Redis 集群架构
在火山引擎的 Redis 集群架构中,集群有三个组件:Server、Proxy 和 Configserver。它们具备不同的功能。
Server:存储数据的组件,即 Redis Server,其后端部署模型是一个多分片的模型。分片之间的 Server Pod 没有通信,为 share-nothing 的架构。分片内部为一主多从的模式,可以一主一从、一主两从,甚至更多。
Proxy:承接 client 发来的请求,同时根据读写拓扑,把请求转发给后端的 Server 分片。
Configserver:配置管理组件,本身是无状态的,所有的状态信息都存储在 etcd。集群生命周期里,Server 的分片信息都保存在 Configserver 里。Configserver 会对每一个分片的 Master 节点进行定期探活,如果发现某一个分片的 Master 节点不可用,就会执行 Failover,把分片内可用的 Slave 提成新的 Master,保证分片可继续对外提供服务。同时,Configserver 也会定期根据 Failover 或其他一些实例信息的变更,更新自己的读写拓扑关系,保证 Proxy 可以从 Configserver 拉取新的正确的配置。
结合以上介绍的 Redis 架构以及 K8s 的特性,我们抽象了一个 Redis 集群在 K8s 集群上部署的基本形态:
使用 Deployment 将无状态的 Configserver 部署在 K8s 上。因为 Configserver 可被所有 Redis 集群共用,为了简化运维复杂度,我们规定所有的 Redis 集群共用一个 Configserver。
Proxy 也是无状态的组件,也用 Deployment 来部署。
因为我们有多分片,而且 Server 是有状态的,所以每一个分片用 StatefulSet 进行托管。在新建集群时,我们默认分片内的 0 号 Pod 为 Master Pod,其余所有的 Pod 是 Slave。这是一个初始状态,后续可能会跟随 Failover 或其他异常发生变更,但是 Configserver 里会实时记录最新的状态信息。
Redis Server 启动的时候需要一些配置文件,里面涉及到一些用户名和密码,我们是通过 Secret 来存储的。在 Server Pod 运行的时候通过 volume 机制挂载到 Server Pod 内部。
而对于 Proxy,我们则是通过 HPA,基于 Proxy 的 CPU 利用率,支持 Proxy 服务的动态扩缩容。
放置策略
对于一个 Redis 集群涉及到的 Server 和 Proxy 组件,火山引擎有一些放置策略要求。
同一个 Server 分片下的节点不能在同一台机器上。即一个分片内的主从节点不能在同一台机器上。在 K8s 上,我们希望一个 StatefulSet 下所有的 Pod 部署在不同机器上,这一点可以利用 Pod-AntiAffinity 下面的 required 语义来实现。
一个集群下的 Proxy Pod 需要尽可能分布在不同机器上。这一点可通过 Pod-AntiAffinity 下的 preferred 语义加上拓扑分布约束来满足。preferred 语义只能保证 Pod 尽可能分布在不同机器上,而拓扑分布约束可以帮助避免极端条件下所有 Pod 都在同一台机器上的情况。
存储
存储使用的是 PVC+PV+具有动态供给能力的 StorageClass。使用 StorageClass 是为了抽象不同的存储后端,支持本地磁盘和分布式存储。开发者可以通过 StorageClass 的配置直接申请对应存储,不用了解具体后端的实现。
另外,火山引擎使用的是支持动态供给的 StorageClass,可自动按需创建不同大小的 PV。如果使用静态供给,就无法提前预知所有 Redis 实例的规格,也无法把它们对应的指定数量的 PV 都创建出来。
Redis 云原生功能介绍
Redis 云原生化以后,Operator 组件是基于 Operator Pattern 实现的一个 custom controller,主要用于编排 Redis Cluster resource,管理 Redis 集群的一些变更。Configserver 也部署在 K8s 上,所有跟 Redis 相关的组件都是云原生化的。
新建集群
常见的新建集群的请求会先发给 ApiServer。ApiServer 接收到请求之后,会通过 client go 的 watch 机制让 Operator 感知到;
随后 Operator 会请求 ApiServer 创建对应 Server 的 StatefulSet;
K8s 把所有 Server 的 StatefulSet 创建成功之后,待所有的 Pod 都处于 ready 状态,这时所有分片内的 Server Pod 之间是没有主从关系的;
Operator 感知到所有的 StatefulSet 都已经处于 ready 的状态后,会获取所有 Server Pod 信息,并注册到 Configserver;
之后 Configserver 会连接到所有分片内的 Slave 节点,执行实际的 SLAVEOF 命令,保证建立真正的主从关系;
Operator 会定期查询 Configserver 里建立主从关系的进度。等所有分片的主从关系建立成功之后,它会请求 ApiServer 把对应的 Proxy 创建出来;
Proxy 创建出来之后,会去 Configserver 拉取最新的拓扑,保证对外提供服务的时候可以把请求打给后端正常的分片。
分片扩容
在实际使用过程中如果遇到容量不足的情况,需要进行水平扩容。分片扩容的请求也是类似的:
请求发给 ApiServer;
ApiServer 把请求推送给 Operator;
Operator 感知到之后,会先给 ApiServer 发请求,把新的分片对应的 StatefulSet 创建出来;
K8s 会把新分片的 StatefulSet 创建好,在处于 ready 状态之后,一个 StatefulSet 下的每个 Pod 也都是独立的状态,没有建立真正的主从关系;
Operator 获知新创建的 Server StatefulSet 分片已经处于 ready 状态之后,会把新的 Server 分片的实例地址注册到 Configserver。Configserver 现在会有两个阶段。1)指导新分片内真实主从关系的建立。即连到所有的新分片的 Slave 上,执行 SLAVEOF 的命令,2)指导数据从老分片迁移到新分片,这样新的分片才能发挥作用,这一步很重要;
Operator 会一直检查数据迁移或者 rebalance 的进度。等进度结束之后,Operator 会更新 Redis Cluster 里 status 的字段,反映当前的分片扩容操作已经结束。
分片缩容
分片缩容的流程和分片扩容类似:请求先发送给 ApiServer,Operator 会感知到请求,然后把缩容分片的请求发送给 Configserver。
Configserver 此时做的事情是:
先指导数据迁移。考虑到后边的一些分片下线,需要把分片上的数据先迁移到其他可用分片上,保证数据不丢;
Operator 会一直查询 Configserver 指导的数据 rebalance 的进度。等缩容操作在 Configserver 完成之后,Operator 会请求 ApiServer 执行真正的 Server StatefulSet 删除,这时才是安全的删除操作。
组件升级
一个 Redis 集群会涉及到两个组件:Proxy 和 Server。无状态的 Proxy 用 Deployment 托管,如果要进行组件升级,直接升级对应的 image 即可。
Server 是一个有状态的组件,它的升级流程相对来说复杂一点。为了简化流程,下面以 Server 只有 1 分片的 Redis 集群为例,介绍升级过程。
Server 组件的升级请求发送给 ApiServer,ApiServer 接收到这个请求之后会把它推送给 Operator;
Operator 首先会按照分片内 Pod 编号,从大到小选择要升级的 Pod;
选定的 Pod 会从 Configserver 的读拓扑里被摘掉(如果要摘除的这个 Pod 在集群拓扑里是 Master,则会先调用 Configserver 的 API,执行 Failover,把它变成 Slave,再把进行摘除);
之后,Operator 等待 30 秒。这个机制的出发点是:首先,Proxy 去 Configserver 拉取配置是异步过程,可能需要经过至少一轮的数据同步才可正常拿到数据。等待 30 秒主要是为了保证所有的 Proxy 都已经拿到了最新的读拓扑,新的读请求不会再发送到要升级的 Server 节点上。其次,我们要保证等待 30 秒的时间,让已经被要升级的 Server Pod 接收的这些请求都成功被处理,并且返回之后,才把要升级的 Server Pod kill 掉;
30 秒之后请求 ApiServer 执行实际的 Pod 删除操作。删除之后 K8s 会重新调度一个新的 Pod 起来,这时新创建的 Server Pod 也是一个独立的 Server 的状态,没有跟任何节点建立主从关系。Operator 感知到新的 Server Pod 已经处于 ready 的状态,会把它注册到 Configserver。
Configserver 连到新的 Server Pod 上,根据它所处的分片跟所在分片的 Master 节点建立主从关系,同时进行数据同步。
Operator 会定期检查新的 Server 分片在 Configserver 是否已经完成数据同步。如果是,Operator 才会认为一个 Server Pod 完成了升级。该分片内其他所有 Server pod 的升级流程都是类似的,直到该分片内所有 Server Pod 都升级完,才认为这个分片升级完成。最后 Operator 会更新自己 Redis Cluster 的 CRD 里对应的 Status 状态信息,反映当前组件升级的流程和变更操作已经结束了。
总结展望
本文以 Redis 为例,介绍了有状态服务部署到 K8s 的抽象流程,并介绍了火山引擎在 Redis 云原生方向的一些探索和实践。目前火山引擎对于 Redis 云原生已经完成了基本功能的构建,未来会在动态扩缩容、异常恢复、细粒度的资源分配和管理方面,结合 K8s 的特性,进行更多深层次的思考和实践。
未来,我们也期望通过云原生化的方式,帮助更多企业进一步提升运维自动化能力和资源的利用率。
Q&A
Q1:没用 Cluster 的模式吗?
A:没有,最早也使用过 Cluster 模式,后来业务体量变大,发现 Cluster 有集群规模上限,不能满足业务的需求。
Q2:Redis 的 Proxy 会计算 Key 在哪个分片吗?
A:会的,Proxy 会参考类似 Redis Cluster 的 Key Hash 算法对 Key 进行 hash,之后分布到不同的 Server 分片上。
Q3:如何界定 Slave 可以提升为 Master?切换步骤是怎样的?
A:Configserver 会定期给 Master 发送 health check 请求进行探活。只有连续多次对一个 Master 的探活都失败时,才会认为 Master 不可用。这时 Configserver 会从分片内所有 Slave 中选择可用的提升成新的 Master(不是所有的 Slave 都可用,可能某一个 Slave 也挂了,或者主从数据同步的延迟比较高)。
Q4:Proxy 是每个 Redis 集群独还是所有集群共享的?
A:Proxy 不是每个 Redis 集群独占的。首先,所有集群共享一个 Proxy 集群,有隔离性的问题。另外,Proxy 支持动态扩缩容,可以做到弹性资源扩缩容,所以不会导致资源浪费。
Q5:系统的稳定性如何,主从切换耗时怎样?
A:稳定性挺好。主从切换的耗时是一个策略问题,需要做一些 tradeoff。如果判断策略太激进,可能会因为临时的网络抖动等因素频繁触发主从切换。实际使用中我们的主从切换耗时在 10s 左右。
Q6:Redis 在什么规模等级下的 K8s 部署会需要修改较多默认配置或者直接更改源码? 在动态扩容的基础上建立 Redis 集群是否会加大困难?有什么方式可以让 Redis 集群无限扩容吗?最多到多少?
A:Redis 目前部署的 K8s 集群规模可选,根据需要的 Redis 集群容量来选择 K8s 规模就可以。适配云原生会需要调整一些组件之间的服务发现方式,但是不需要太多源码的修改。我们目前只支持 Proxy 的动态扩缩容,Server 是有状态的服务,还不太好接入 HPA(因为可能会涉及到一些数据的迁移),虽然 HPA 也支持对 Statefulset 服务的自动化扩缩容。我们的 Redis 架构理论上集群的规模可以很大,现在 CRD 的限制是一个 Redis 集群最多 1024 个分片。
本文整理自火山引擎开发者社区首次 Meetup 中的《Redis 云原生实践》,主要介绍了将 Redis 部署到 K8s 的抽象流程,以及火山引擎在 Redis 云原生方向的探索。5 月 15 日,火山引擎开发者社区将举办第二期线上 Meetup——抖音春晚红包场景下的技术揭秘,活动正在热烈报名中。
版权声明: 本文为 InfoQ 作者【火山引擎】的原创文章。
原文链接:【http://xie.infoq.cn/article/db39e83366bd3aed81f037fd7】。文章转载请联系作者。
评论