写点什么

工商银行:应用多 k8s 集群管理及容灾实践

发布于: 15 小时前

​​​​摘要:在华为开发者大会(Cloud)2021 上,工商银行 Paas 云平台架构师沈一帆发表了《工商银行多 k8s 集群管理及容灾实践》主题演讲,分享了工商银行使用多云容器编排引擎 Karmada 的落地实践过程。


本文分享自华为云社区《Karmada | 工商银行多k8s集群管理及容灾实践》,原文作者:技术火炬手。

 

在华为开发者大会(Cloud)2021 上,工商银行 Paas 云平台架构师沈一帆发表了《工商银行多 k8s 集群管理及容灾实践》主题演讲,分享了工商银行使用多云容器编排引擎 Karmada 的落地实践过程。



演讲主要包含 4 个方面的内容:

  • 工行云平台现状

  • 业界多集群管理方案及选型

  • 为什么选择 Karmada?

  • 落地情况及未来展望

工行云计算的业务背景


工商银行云平台的整体架构

工行云平台技术栈


采用了业界比较领先的云产品和主流开源技术,在此基础上结合了我们一些金融的业务场景,进行了深度化定制。



  • 基础设施云:基于华为云 Stack8.0 产品结合运营运维需求进行客户化定制,构建新一代基础设施云。


  • 应用平台云:通过引入开源容器技术 Docker、容器集群调度技术 Kubernetes 等,自主研发建设应用平台云。


  • 上层应用方案:基于 HaProxy、Dubbo、ElasticSerch 等建立负载均衡、微服务、全息监控、日志中心等周边配套云生态。

工行金融云成效


在容器云方面,工行的金融云成效也是非常大的,首先体现在它的入云规模大,截至目前应用平台云容器规模超 20 万,业务容器占到 55,000 个左右,整体的一些核心业务都已入容器云内部。除了在同业的入云规模最大之外,我们的业务场景涉及非常广泛,一些核心的应用,核心的银行业务系统,包括个人金融体系的账户,快捷支付、线上渠道、纪念币预约等,这些核心的业务应用也已容器化部署;另外,我们的一些核心技术支撑类应用如 MySQL,还有一些中间件以及微服务框架,这一类核心支撑类应用也已入云;此外,一些新技术领域,包括物联网、人工智能、大数据等。


当越来越多的核心业务应用入云之后,对我们最大的挑战是容灾以及高可用,在这方面我们也做了很多实践:


1)云平台支持多层次故障保护机制,确保同一业务的不同实例会均衡分发到两地三中心的不同资源域,确保单个存储、单个集群甚至单个数据中心发生故障时,不会影响业务的整体可用性。



2)在故障情况下,云平台通过容器重启及自动漂移,实现故障的自动恢复。



在整体容器云实践下,我们也遇到了一些问题,其中比较突出的是 pass 层容器层的多集群的现状。现在工行内部整体的 k8s 总数,k8s 集群的总数已近百个,主要的原因有 4 个:


1)集群种类多:刚刚也说了我们的业务场景非常的广泛,比如 GPU 要有不同支持 GPU 的设备,一些中间件,数据库它对底层的网络容器存储的需求是不同的,那势必会产生不同的解决方案,因此我们需要为不同的业务场景定制不同集群。


2)受到 k8s 本身性能的限制,包括 scheduler、 etcd 、API server 等一些性能瓶颈,每一个集群也有它数量的上限。


3)业务扩展非常快。


4)故障域分区多,我们两地三中心的架构至少有三个 DC,每个 DC 内部还有不同的网络区域,通过防火墙进行隔离, 这样的倍乘关系,中间就会产生很多集群故障域的分布。


基于以上 4 点,针对当前的现状,我们现有的解决方案还是依靠容器云的云管平台,通过云管平台管理这些多 k8s 集群,另外上层的业务应用需要自主选择它的集群,包括它需要的偏好、网络、区域等,去选择它具体的某一个 k8s 集群。在选择到 k8s 集群之后,我们内部是通过故障率进行自动打散的调度。



但现有的解决方案对上层应用还是暴露出非常多的问题:


1)对上层应用来说,它可能上了容器云比较关心的一个部分,就是我们具有在业务峰值的过程中自动伸缩的能力,但自动伸缩现在只是在集群内部,没有整体的跨集群自动伸缩的能力。


2)无跨集群自动调度能力,包括调度的能力可能都是在集群内部,应用需要自主的选择具体的集群


3)集群对上层用户不透明


4)无跨集群故障自动迁移能力。我们还是主要依靠两地三中心架构上副本的冗余,那么在故障恢复的自动化恢复过程中,这一块的高可用能力是有缺失的。

业界多集群管理方案及选型


基于目前的现状,我们定下了一些目标,对业界的一些方案进行整体的技术选型,总共分为 5 个模块:



为什么希望它是一个具有一定社区支持度的开源项目,主要是三点的考虑:


  • 希望整体方案是企业内部自主可控的,这点也是开源的一大益处

  • 不希望花费更多的能力

  • 为什么不把调度以及故障恢复的能力全部集成到刚刚的云管平台。这部分是我们希望整体的多集群管理模块,从云管平台中隔离出来,下沉到下面的一个多集群管理模块。


基于以上这些目标,我们进行社区解决方案的一些调研。

Kubefed



我们调研的第一个是之前比较火的一个集群联邦 federation 项目, federation 整体是分 v1 和 v2 的版本,我们去调研的时候,那个时候已经主要是 v2 也就是 Kubefed。


Kubefed 本身也能解决一部分问题,它具有集群生命周期管理、Override 以及基础调度的能力,但对我们来说它有几点致命的硬伤,目前还无法满足我们的需求:


1)调度层面是非常基础的一个调度能力,他们也不准备在调度方面花费更大的精力支持自定义调度,不支持按资源余量调度。


2)第二点也是比较为人所诟病的,它本身不支持原生 k8s 对象,我要在它的管理集群中使用它新定义的 CRD,对于我们已经使用了这么久的 k8s 原生资源对象的上层应用,云管平台本身对接 API 方面,我们也需要重新进行开发,这部分成本是非常大的。


3)它基本不具备故障自动迁移能力

RHACM



我们调研的第二个项目是 RHACM,该项目主要由红帽和 IBM 主导,整体调研下来,发现它的功能是比较健全的,包括我们刚刚所提的能力也是具备的,而且它上层应用 application 层对于对用户那一层的能力比较靠近云管平台这样一个定位,但它仅仅支持 Openshift,对于我们已经存量有这么多的 k8s 集群来说,改造成本非常大,而且太重了。而在我们进行研究的时候,它还没有开源,社区的整体支持力度是不够的。

Karmada


当时我们和华为交流到了多集群管理的一个现状以及痛点,包括对社区联邦类项目的讨论,我们双方也非常希望能够在这方面革新,下图为 Karmada 的功能视图:


Karmada 功能视图


从它整体功能视图及规划来看,和我们上文提到的目标非常契合,它有集群整体的生命周期管理、集群注册、多集群伸缩、多集群调度、整体统一的 API、底层标准 API 支持,它都是 CNI/CSI 在它整体功能视图里,包括上层的应用、对 Istio、Mash、CI/CD 等都有整体规划上的考虑。因此基于整体思路,它的功能与我们非常契合,工行也决定投入到这个项目中来,跟华为和我们很多的项目伙伴共建 Karmada 项目,并把它回馈到我们社区整体。

为什么选择 Karmada

技术架构



在我个人的理解上,它有以下优势:


1)Karmada 以类 k8s 的形式部署,它有 APIServer、Controller Manager 等,对我们已经拥有存量那么多 k8s 集群的企业来说,改造成本是比较小的,我们只需在上面部署一个管理集群即可


2)Karmada-Controller-Manager 管理包括 cluster、policy、binding、works 等多种 CRD 资源作为管理端资源对象,但是它没有侵入到原生的我们想要部署的那些 k8s 原生资源对象。


3)Karmada 仅管理资源在集群间的调度,子集群内分配高度自治


Karmada 整体的 Resources 是如何进行分发的?


  • 第一步,集群注册到 Karmada

  • 第二步,定义 Resource Template

  • 第三步,制定分发策略 Propagation Policy

  • 第四步,制定 Override 策略

  • 第五步,看 Karmada 干活


下图为整体的下发流程:



当我们定义了 deployment 之后,它通过 Propagation Policy 进行匹配,然后它就会产生一个绑定关系,就是 Propagation Binding,然后再通过一个 override 的一个 policy,就产生了每一个 works。这个 works 其实就是在子集群中各个资源对象的一个封装。在这里我觉得比较重要的是 propagation 以及 workers 机制。

Propagation 机制



首先我们定义的是 Propagation 的 Policy,可以看到整体 yaml 得话,我们先定了一个比较简单的策略,选择了一个 cluster,它叫 member 1; 第二个就是我需要这条策略到底匹配哪些 K8s resourcetemplate,它匹配的是我们定义了一个 namespace 为 default 的 nginx deployment。它除了支持 Cluster 的亲和性之外,还支持集群容忍,按集群标签、故障域分发。


当定义完 Propagation Policy 之后,之前定义的想要下发的 K8s resourcetemplate 会自动跟它进行匹配,匹配之后,deployment 会被分发到比如说 ABC 三个集群,这样就跟 ABC 三个集群产生了绑定,这个绑定关系就是 Resource Bindding。


Resource Bindding 整体的 yaml 可能就是你选择的一个 cluster,在这里就是 member 1 这样一个 cluster,现在整个 Resource Bindding 是支持 cluster 和 namespace 两种级别的,这两种级别相当于对应了不同的场景,namespace 级别是当一个集群内部是用 namespace 做租户隔离时,可能 Resource Bindding 用的 namespace 的 scope。还有一个 cluster 场景,就是整个子集群都是给一个人用的,给一个租户用的,我们直接用 ClusterResource Bindding 绑定即可。

Work 机制


在我们已经建立了 PropagationBindding 之后,那 work 是怎么进行分发的?



当 Propagation Bindding 产生了之后,比如产生了 ABC 三个集群,这里的 1:m 就是指这三个集群。找到这三个集群之后,Bindding Controller 就会工作,然后去产生基于 resource template 以及你的绑定关系,去产生具体的 works 对象,works 对象整体就是具体的子集群中 resource 的封装,那么同时 works 的一个 status 有一个子集群 resource 的反馈,可以看到整个 work yaml,可以看到 manifests 下面就是整体的一个子集群,具体已经 override 过,具体要分发到子集群里面的整体的一个 deployment yaml 都在这里了,所以说它只是一个 resource 的封装。

Karmada 优势


工行在具体使用与验证之后,发现 Karmada 有以下几点优势:


1)资源调度


  • 自定义跨集群调度策略

  • 对上层应用透明

  • 支持两种资源绑定调度


2)容灾


  • 动态 binding 调整

  • 按照集群标签或故障域自动分发资源对象


3)集群管理


  • 支持集群注册

  • 全生命周期管理

  • 统一标准的 API


4)资源管理


  • 支持 k8s 原生对象

  • works 支持子集群资源部署状态获取

  • 资源对象分发既支持 pull 也支持 push 方式

Karmada 在工行的落地情况及对未来展望


首先我们看下 Karmada 其中的两个功能怎么去纳管集群和资源下发?


目前为止工行的测试环境中 Karmada 已经对存量集群进行了一些纳管,在对未来规划方面,一个比较关键的点是如何跟我们整体云平台进行集成。

云平台集成


在这方面我们希望之前提到的多集群管理、跨集群调度、跨集群伸缩、故障恢复以及资源整体视图方面都全部下沉到 Karmada 这样一个控制平面。



对于上层的云管平台,我们更注重它对用户业务的管理,包括用户管理、应用管理、进项管理等,也包括由 Karmada 衍生出来的比如说 Policy 定义在云平台上。上图比较简略,具体的云平台可能还要连一根线到每一个 k8s 集群,比如 pod 在哪个 node 上,Karmada 的平面可能是不关心的,但具体要知道 pod 位置类的信息,可能还要从 k8s 的子集群获取,这个也可能是我们后面集成中需要去解决的问题,当然这也是符合 Karmada 本身的设计理念,它是不需要关心具体的 pod 在 k8s 子集群的哪个位置。

未来展望 1-跨集群调度


对于跨集群调度方面,Karmada 已经支持了上文提到的故障域打算、应用偏好、权重对比。但是我们希望它也能够根据集群的资源与量去进行调度,这样不会产生各个子集群当中资源不均衡的状态。虽然它暂时是没有实现的,但它的一个 CRD 叫 cluster, cluster 有一个状态信息,这个状态信息里面会去收集 node ready 的状态, node 上剩余的 Allocatable,就是 CPU 内存的剩余信息。其实有了这些信息之后,我们再做自定义调度,完全是规划中的一个事情。


整体的调度设计完之后,我们希望在工行产生的效果如下图,当我调度 deployment A 时,它是因为偏好的设置调度到 cluster 1;deployment B 因为一个故障域打散,它可能调度到了 cluster 123 三个集群;deployment C 也是一个故障域打散,但是因为资源余量的原因,它多余的 pod 被调度到了 cluster 2 这样一个集群。



未来展望 2-跨集群伸缩


跨集群伸缩现在也是在 Karmada 规划当中,现在我们可能还是需要解决一些问题:



1)考虑它跨集群伸缩和子集群伸缩之间的关系,因为现在往往我们上层业务应用配置的是单个集群伸缩的策略,那么整体跨集群的策略与子集群伸缩策略都配置时,它们之间的关系,到底是上层整体去做管理,还是有优先级,这可能是我们后面需要考虑的。


2)跨集群伸缩和跨集群调度间的关系,我觉得整体上还是以一个调度器为准。我的一个 Multi-cluster 仅仅负责伸缩的部分,比如到达了多少 CPU、多少的内存,比如说 70% -80%的时候去进行伸缩,伸缩到多少个,具体的调度还是由整体 scheduler 去进行。


3)需要汇聚各个集群的 metric,包括可能有一些性能瓶颈,它整体的工作模式,是需要我们后续去考虑的。

未来展望 3-跨集群故障恢复及高可用


1)子集群健康状态的判断策略:可能只是与管理集群失联,子集群本身业务容器均无损


2)自定义的故障恢复策略:Like RestartPolicy,Always、Never、OnFailure


3)重新调度和跨集群伸缩的关系:希望它多集群的调度是整体的一个调度器,而伸缩控制好它自己伸缩的一个策略即可。


整体对我们工行的一些业务场景而言,Karmada 现在的能力及以后的规划,可预见应该都是能解决我们业务场景痛点的。很高兴有机会能够加入到 Karmada 项目,希望有更多的开发者能够加入 Karmada,与我们共建社区,共建这样一个多云管理的新项目。


附:Karmada 社区技术交流地址

项目地址:https://github.com/karmada-io/karmada

Slack 地址:https://karmada-io.slack.com


点击关注,第一时间了解华为云新鲜技术~

发布于: 15 小时前阅读数: 9
用户头像

提供全面深入的云计算技术干货 2020.07.14 加入

华为云开发者社区,提供全面深入的云计算前景分析、丰富的技术干货、程序样例,分享华为云前沿资讯动态,方便开发者快速成长与发展,欢迎提问、互动,多方位了解云计算! 传送门:https://bbs.huaweicloud.com/

评论

发布
暂无评论
工商银行:应用多k8s集群管理及容灾实践