Dubbo-kubernetes 基于 Informer 服务发现优化之路
作者:丛国庆
在 Kubernetes(简称 K8s,一个可移植容器的编排管理工具)体系中,etcd 存储集群的数据信息,kube-apiserver 作为统一入口,任何对数据的操作都必须经过 kube-apiserver。因此 Dubbo 想要以 Kubernetes 作为注册中心,必须调用 kube-apiserver 获取服务地址列表,那是以什么样的机制保持信息的可靠性、实时性、顺序性、高性能呢?答案就是基于 List/Watch 的 Informer 组件。
List/Watch 机制介绍
List / Watch 机制是 Kubernetes 中实现集群控制模块最核心的设计之一,它采用统一的异步消息处理机制,保证了消息的实时性、可靠性、顺序性和性能等,为声明式风格的 API 奠定了良好的基础。
List 是向 kube-apiserver 调用 list API 获取资源列表,基于 HTTP 短链接实现。
Watch 则是向 kube-apiserver 调用 watch API 监听资源变更事件,基于 HTTP 长链接,通过 Chunked transfer encoding(分块传输编码) 来实现消息通知。
当客户端调用 watch API 时,kube-apiserver 在 response 的 HTTP Header 中设置 Transfer-Encoding 的值为 chunked,表示采用分块传输编码,客户端收到该信息后,便和服务端连接,并等待下一个数据块,即资源的事件信息。例如:
Dubbo 基于 Watch 的服务发现
以上图为例,dubbo-kubernetes 服务发现以 Kubernetes 为 Registry ,provider 注册地址到注册中心,consumer 从注册中心读取和订阅 provider 地址列表。在 Dubbo3.1 版本之前,consumer 订阅是通过 Fabric8 Kubernetes Java Client 提供的 watch API 实现,监听 kube-apiserver 中资源的 create、update 和 delete 事件,如下:
监听到资源变化后,调用 notifyServiceChanged 方法从 kube-apiserver 全量拉取资源 list 数据,保持 Dubbo 本地侧服务列表。
这样的操作存在很严重的问题,由于 watch 对应的回调函数会将更新的资源返回,Dubbo 社区考虑到维护成本较高,之前并没有在本地维护关于 CRD 资源的缓存,这样每次监听到变化后调用 list 从 kube-apiserver 获取对应 serviceName 的 endpoints 信息,无疑增加了一次对 kube-apiserver 的直接访问。
kubernetes-client 为解决客户端需要自行维护缓存的问题,推出了 informer 机制。
Informer 机制介绍
Informer 模块是 Kubernetes 中的基础组件,以 List/Watch 为基础,负责各组件与 kube-apiserver 的资源与事件同步。Kubernetes 中的组件,如果要访问 Kubernetes 中的 Object,绝大部分情况下会使用 Informer 中的 Lister()方法,而非直接调用 kube-apiserver。
以 Pod 资源为例,介绍下 informer 的关键逻辑(与下图步骤一一对应):
Informer 在初始化时,Reflector 会先调用 List 获得所有的 Pod,同时调用 Watch 长连接监听 kube-apiserver。
Reflector 拿到全部 Pod 后,将 Add Pod 这个事件发送到 DeltaFIFO。
DeltaFIFO 随后 pop 这个事件到 Informer 处理。
Informer 向 Indexer 发布 Add Pod 事件。
Indexer 接到通知后,直接操作 Store 中的数据(key->value 格式)。
Informer 触发 EventHandler 回调。
将 key 推到 Workqueue 队列中。
从 WorkQueue 中 pop 一个 key。
然后根据 key 去 Indexer 取到 val。根据当前的 EventHandler 进行 Add Pod 操作(用户自定义的回调函数)。
随后当 Watch 到 kube-apiserver 资源有改变的时候,再重复 2-9 步骤。
(来源于 kubernetes/sample-controller)
Informer 关键设计
本地缓存:Informer 只会调用 K8s List 和 Watch 两种类型的 API。Informer 在初始化的时,先调用 List 获得某种 resource 的全部 Object,缓存在内存中; 然后,调用 Watch API 去 watch 这种 resource,去维护这份缓存; 最后,Informer 就不再调用 kube-apiserver。Informer 抽象了 cache 这个组件,并且实现了 store 接口,后续获取资源直接通过本地的缓存来进行获取。
无界队列:为了协调数据生产与消费的不一致状态,在客户端中通过实现了一个无界队列 DeltaFIFO 来进行数据的缓冲,当 reflector 获取到数据之后,只需要将数据推到到 DeltaFIFO 中,则就可以继续 watch 后续事件,从而减少阻塞时间,如上图 2-3 步骤所示。
事件去重:在 DeltaFIFO 中,如果针对某个资源的事件重复被触发,则就只会保留相同事件最后一个事件作为后续处理,有 resourceVersion 唯一键保证,不会重复消费。
复用连接:每一种资源都实现了 Informer 机制,允许监控不同的资源事件。为了避免同一个资源建立多个 Informer,每个 Informer 使用一个 Reflector 与 apiserver 建立链接,导致 kube-apiserver 负载过高的情况,K8s 中抽象了 sharedInformer 的概念,即共享的 Informer, 可以使同一类资源 Informer 共享一个 Reflector。内部定义了一个 map 字段,用于存放所有 Infromer 的字段。针对同一资源只建立一个连接,减小 kube-apiserver 的负载。
Dubbo 引入 Informer 机制后的服务发现
Dubbo 3.1.1 后引入 Informer 机制,Informer 组件会利用其特性在 consumer 侧内存中维护 Kubernetes 环境中的所有地址列表。
资源监听由 Watch API 更换为 Informer API
以 Endpoints 为例,将原本的 watch 替换为 Informer,回调函数分别为 onAdd、onUpdate、onDelete,回调参数传的都是 Informer store 中的资源全量值。
getInstances() 优化
引入 Informer 后,无需直接调用 List 接口,而是直接从 Informer 的 store 中获取,减少对 kube-apiserver 的直接调用。
结论
优化为 Informer 后,Dubbo 的服务发现不用每次直接调用 kube-apiserver,减小了 kube-apiserver 的压力,也大大减少了响应时间,助力 Dubbo 从传统架构迁移到 Kubernetes 中。
版权声明: 本文为 InfoQ 作者【阿里巴巴中间件】的原创文章。
原文链接:【http://xie.infoq.cn/article/7202fb1f90e848546f5c980b6】。文章转载请联系作者。
评论