karmada | 工商银行多k8s集群管理及容灾实践-4008云顶国际网站

技术火炬手 发表于 2021/07/08 15:18:37 2021/07/08
【摘要】 面对多集群管理难题,为什么工商银行会选择karmada?

在华为开发者大会(cloud)2021上,工商银行paas云平台架构师沈一帆发表了《工商银行多k8s集群管理及容灾实践》主题演讲,分享了工商银行使用多云容器编排引擎karmada的落地实践过程。

演讲主要包含4个方面的内容:

  • 1)工行云平台现状
  • 2)业界多集群管理方案及选型
  • 3)为什么选择karmada?
  • 4)落地情况及未来展望

近几年互联网的崛起,对金融行业的金融模式及服务模式都产生了巨大的冲击,这令我们不得不做出一些巨大的革新。同时从现在的角度来看,银行业务系统入云已是大势所趋,截止目前,工商银行已形成了以基础设施云、应用平台云、金融生态云以及比较有工行特色的分行云4个模块,组成了我们整体的云平台架构。

工商银行云平台的整体架构

工行云平台技术栈

采用了业界比较领先的云产品和主流开源技术,在此基础上结合了我们一些金融的业务场景,进行了深度化定制。

  • 基础设施云:基于华为云stack8.0产品结合运营运维需求进行客户化定制,构建新一代基础设施云。
  • 应用平台云:通过引入开源容器技术docker、容器集群调度技术kubernetes等,自主研发建设应用平台云。
  • 上层应用方案:基于haproxy、dubbo、elasticserch等建立负载均衡、微服务、全息监控、日志中心等周边配套云生态。

工行金融云成效

在容器云方面,工行的金融云成效也是非常大的,首先体现在它的入云规模大,截至目前应用平台云容器规模超20万,业务容器占到55,000个左右,整体的一些核心业务都已入容器云内部。除了在同业的入云规模最大之外,我们的业务场景涉及非常广泛,一些核心的应用,核心的银行业务系统,包括个人金融体系的账户,快捷支付、线上渠道、纪念币预约等,这些核心的业务应用也已容器化部署;另外,我们的一些核心技术支撑类应用如mysql,还有一些中间件以及微服务框架,这一类核心支撑类应用也已入云;此外,一些新技术领域,包括物联网、人工智能、大数据等。

当越来越多的核心业务应用入云之后,对我们最大的挑战是容灾以及高可用,在这方面我们也做了很多实践:

1)云平台支持多层次故障保护机制,确保同一业务的不同实例会均衡分发到两地三中心的不同资源域,确保单个存储、单个集群甚至单个数据中心发生故障时,不会影响业务的整体可用性。

2)在故障情况下,云平台通过容器重启及自动漂移,实现故障的自动恢复。

在整体容器云实践下,我们也遇到了一些问题,其中比较突出的是 pass层容器层的多集群的现状。现在工行内部整体的k8s总数,k8s集群的总数已近百个,主要的原因有4个:

1)集群种类多:刚刚也说了我们的业务场景非常的广泛,比如gpu要有不同支持gpu的设备,一些中间件,数据库它对底层的网络容器存储的需求是不同的,那势必会产生不同的4008云顶国际网站的解决方案,因此我们需要为不同的业务场景定制不同集群。

2)受到k8s本身性能的限制,包括scheduler、 etcd 、api server等一些性能瓶颈,每一个集群也有它数量的上限。

3)业务扩展非常快。

4)故障域分区多,我们两地三中心的架构至少有三个dc,每个dc内部还有不同的网络区域,通过防火墙进行隔离, 这样的倍乘关系,中间就会产生很多集群故障域的分布。

基于以上4点,针对当前的现状,我们现有的4008云顶国际网站的解决方案还是依靠容器云的云管平台,通过云管平台管理这些多k8s集群,另外上层的业务应用需要自主选择它的集群,包括它需要的偏好、网络、区域等,去选择它具体的某一个k8s集群。在选择到k8s集群之后,我们内部是通过故障率进行自动打散的调度。

但现有的4008云顶国际网站的解决方案对上层应用还是暴露出非常多的问题:

1)对上层应用来说,它可能上了容器云比较关心的一个部分,就是我们具有在业务峰值的过程中自动伸缩的能力,但自动伸缩现在只是在集群内部,没有整体的跨集群自动伸缩的能力。

2)无跨集群自动调度能力,包括调度的能力可能都是在集群内部,应用需要自主的选择具体的集群

3)集群对上层用户不透明

4)无跨集群故障自动迁移能力。我们还是主要依靠两地三中心架构上副本的冗余,那么在故障恢复的自动化恢复过程中,这一块的高可用能力是有缺失的。

基于目前的现状,我们定下了一些目标,对业界的一些方案进行整体的技术选型,总共分为5个模块:

为什么希望它是一个具有一定社区支持度的开源项目,主要是三点的考虑:

  • 1)希望整体方案是企业内部自主可控的,这点也是开源的一大益处
  • 2)不希望花费更多的能力
  • 3)为什么不把调度以及故障恢复的能力全部集成到刚刚的云管平台。这部分是我们希望整体的多集群管理模块,从云管平台中隔离出来,下沉到下面的一个多集群管理模块。

基于以上这些目标,我们进行社区4008云顶国际网站的解决方案的一些调研。

kubefed


我们调研的第一个是之前比较火的一个集群联邦federation项目, federation整体是分v1和v2的版本,我们去调研的时候,那个时候已经主要是v2也就是kubefed。

kubefed本身也能解决一部分问题,它具有集群生命周期管理、override以及基础调度的能力,但对我们来说它有几点致命的硬伤,目前还无法满足我们的需求:

1)调度层面是非常基础的一个调度能力,他们也不准备在调度方面花费更大的精力支持自定义调度,不支持按资源余量调度。

2)第二点也是比较为人所诟病的,它本身不支持原生k8s对象,我要在它的管理集群中使用它新定义的crd,对于我们已经使用了这么久的k8s原生资源对象的上层应用,云管平台本身对接api方面,我们也需要重新进行开发,这部分成本是非常大的。

3)它基本不具备故障自动迁移能力

rhacm


我们调研的第二个项目是rhacm,该项目主要由红帽和 ibm主导,整体调研下来,发现它的功能是比较健全的,包括我们刚刚所提的能力也是具备的,而且它上层应用application层对于对用户那一层的能力比较靠近云管平台这样一个定位,但它仅仅支持openshift,对于我们已经存量有这么多的k8s集群来说,改造成本非常大,而且太重了。而在我们进行研究的时候,它还没有开源,社区的整体支持力度是不够的。

karmada

当时我们和华为交流到了多集群管理的一个现状以及痛点,包括对社区联邦类项目的讨论,我们双方也非常希望能够在这方面革新,下图为karmada的功能视图:

karmada功能视图

从它整体功能视图及规划来看,和我们上文提到的目标非常契合,它有集群整体的生命周期管理、集群注册、多集群伸缩、多集群调度、整体统一的api、底层标准api支持,它都是cni/csi在它整体功能视图里,包括上层的应用、对istio、mash、ci/cd等都有整体规划上的考虑。因此基于整体思路,它的功能与我们非常契合,工行也决定投入到这个项目中来,跟华为和我们很多的项目伙伴共建karmada项目,并把它回馈到我们社区整体。

技术架构


在我个人的理解上,它有以下优势:

1)karmada以类k8s的形式部署,它有api server、controller manager等,对我们已经拥有存量那么多k8s集群的企业来说,改造成本是比较小的,我们只需在上面部署一个管理集群即可

2)karmada-controller-manager管理包括cluster、policy、binding、works等多种crd资源作为管理端资源对象,但是它没有侵入到原生的我们想要部署的那些k8s原生资源对象。

3)karmada仅管理资源在集群间的调度,子集群内分配高度自治

karmada整体的resources是如何进行分发的?

  • 第一步,集群注册到karmada
  • 第二步,定义resource template
  • 第三步,制定分发策略propagation policy
  • 第四步,制定override策略
  • 第五步,看karmada干活

下图为整体的下发流程:

当我们定义了deployment之后,它通过 propagation policy进行匹配,然后它就会产生一个绑定关系,就是propagation binding,然后再通过一个 override的一个policy,就产生了每一个works。这个works其实就是在子集群中各个资源对象的一个封装。在这里我觉得比较重要的是propagation以及workers机制。

propagation机制

首先我们定义的是 propagation的policy,可以看到整体yaml得话,我们先定了一个比较简单的策略,选择了一个cluster,它叫member 1; 第二个就是我需要这条策略到底匹配哪些k8s resource template,它匹配的是我们定义了一个namespace为default的nginx deployment。它除了支持cluster的亲和性之外,还支持集群容忍,按集群标签、故障域分发。

当定义完propagation policy之后,之前定义的想要下发的k8s resource template会自动跟它进行匹配,匹配之后,deployment会被分发到比如说abc三个集群,这样就跟abc三个集群产生了绑定,这个绑定关系就是resource bindding。

resource bindding整体的yaml可能就是你选择的一个cluster,在这里就是member 1这样一个cluster,现在整个resource bindding是支持cluster和namespace两种级别的,这两种级别相当于对应了不同的场景,namespace级别是当一个集群内部是用namespace做租户隔离时,可能resource bindding用的namespace的 scope。还有一个cluster场景,就是整个子集群都是给一个人用的,给一个租户用的,我们直接用cluster resource bindding绑定即可。

work机制

在我们已经建立了propagation bindding之后,那work是怎么进行分发的?

当propagation bindding产生了之后,比如产生了abc三个集群,这里的1:m就是指这三个集群。找到这三个集群之后,bindding controller就会工作,然后去产生基于 resource template以及你的绑定关系,去产生具体的works对象,works对象整体就是具体的子集群中resource的封装,那么同时 works 的一个status有一个子集群resource的反馈,可以看到整个work yaml,可以看到manifests下面就是整体的一个子集群,具体已经override过,具体要分发到子集群里面的整体的一个deployment yaml都在这里了,所以说它只是一个resource的封装。

karmada优势

工行在具体使用与验证之后,发现karmada有以下几点优势:

1)资源调度

  • 自定义跨集群调度策略
  • 对上层应用透明
  • 支持两种资源绑定调度

2)容灾

  • 动态binding调整
  • 按照集群标签或故障域自动分发资源对象

3)集群管理

  • 支持集群注册
  • 全生命周期管理
  • 统一标准的api

4)资源管理

  • 支持k8s原生对象
  • works支持子集群资源部署状态获取
  • 资源对象分发既支持pull也支持push方式

首先我们看下karmada其中的两个功能怎么去纳管集群和资源下发?

目前为止工行的测试环境中karmada已经对存量集群进行了一些纳管,在对未来规划方面,一个比较关键的点是如何跟我们整体云平台进行集成。

云平台集成

在这方面我们希望之前提到的多集群管理、跨集群调度、跨集群伸缩、故障恢复以及资源整体视图方面都全部下沉到karmada这样一个控制平面。

对于上层的云管平台,我们更注重它对用户业务的管理,包括用户管理、应用管理、进项管理等,也包括由karmada衍生出来的比如说policy定义在云平台上。上图比较简略,具体的云平台可能还要连一根线到每一个k8s集群,比如pod在哪个node上,karmada的平面可能是不关心的,但具体要知道pod位置类的信息,可能还要从k8s的子集群获取,这个也可能是我们后面集成中需要去解决的问题,当然这也是符合karmada本身的设计理念,它是不需要关心具体的pod在k8s子集群的哪个位置。

未来展望1-跨集群调度

对于跨集群调度方面,karmada已经支持了上文提到的故障域打算、应用偏好、权重对比。但是我们希望它也能够根据集群的资源与量去进行调度,这样不会产生各个子集群当中资源不均衡的状态。虽然它暂时是没有实现的,但它的一个crd叫cluster, cluster有一个状态信息,这个状态信息里面会去收集node ready的状态, node上剩余的allocatable,就是cpu内存的剩余信息。其实有了这些信息之后,我们再做自定义调度,完全是规划中的一个事情。

整体的调度设计完之后,我们希望在工行产生的效果如下图,当我调度 deployment a时,它是因为偏好的设置调度到cluster 1; deployment b因为一个故障域打散,它可能调度到了cluster 123三个集群;deployment c也是一个故障域打散,但是因为资源余量的原因,它多余的pod被调度到了cluster 2这样一个集群。

未来展望2-跨集群伸缩

跨集群伸缩现在也是在karmada规划当中,现在我们可能还是需要解决一些问题:

1)考虑它跨集群伸缩和子集群伸缩之间的关系,因为现在往往我们上层业务应用配置的是单个集群伸缩的策略,那么整体跨集群的策略与子集群伸缩策略都配置时,它们之间的关系,到底是上层整体去做管理,还是有优先级,这可能是我们后面需要考虑的。

2)跨集群伸缩和跨集群调度间的关系,我觉得整体上还是以一个调度器为准。我的一个multi-cluster仅仅负责伸缩的部分,比如到达了多少cpu、多少的内存,比如说70% -80%的时候去进行伸缩,伸缩到多少个,具体的调度还是由整体scheduler去进行。

3)需要汇聚各个集群的metric,包括可能有一些性能瓶颈,它整体的工作模式,是需要我们后续去考虑的。

未来展望3-跨集群故障恢复及高可用

1)子集群健康状态的判断策略:可能只是与管理集群失联,子集群本身业务容器均无损

2)自定义的故障恢复策略:like restartpolicy,always、never、onfailure

3)重新调度和跨集群伸缩的关系:希望它多集群的调度是整体的一个调度器,而伸缩控制好它自己伸缩的一个策略即可。

整体对我们工行的一些业务场景而言,karmada现在的能力及以后的规划,可预见应该都是能解决我们业务场景痛点的。很高兴有机会能够加入到karmada项目,希望有更多的开发者能够加入karmada,与我们共建社区,共建这样一个多云管理的新项目。

附:karmada社区技术交流地址

项目地址:
slack地址:

【4008云顶国际集团的版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区),文章链接,文章作者等基本信息,否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件至:进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容。
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。