写点什么

磐久网络|揭秘阿里云 HAIL 数据中心网络

作者:云布道师
  • 2022-11-30
    浙江
  • 本文字数:4196 字

    阅读完需:约 14 分钟

磐久网络|揭秘阿里云HAIL数据中心网络

HAIL 是阿里云数据中心网络架构的代号,取自 High Availability(高可用),Intelligence(智能化),and Low Latency(低延时),代表着阿里云构建数据中心网络的理念。本文带大家探秘阿里云 HAIL 数据中心网络,一起展望数据中心网络的未来。

云计算数据中心的发展

云计算数据中心是云计算的算力载体,今天所有的云计算服务都在数据中心这样一个“超级电脑”中进行着快速运算,并通过互联网将服务快速触达全球用户和各行各业。云计算数据中心大致上可与一台电脑进行类比,包含 CPU、GPU、存储、互联,以及供电和制冷系统。如果你想了解数据中心网络,拆开电脑机框,主板上那一条条连接着各种部件的金属走线所发挥的作用,就是数据中心这个“超级电脑”中网络在做的工作。当然,数据中心网络系统远比一台电脑的内部互联复杂得多。


数据中心诞生之前,网络主要用于全球互联,以及企业内部的组网互通,俗称公网和内网。初期的数据中心基于服务传统企业网的技术进行构建,逐渐发展成为一个独立的场景。互联网和云计算公司为了向公众提供互联网服务(如媒体信息、通信交流、搜索查阅、网上购物等),需要自身具备服务全国甚至全球用户的计算、存储和网络互联能力,这要求后端技术平台能够处理高并发的请求,内部系统则要对数据进行快速的存储、计算、搜索,再经由互联网络将结果输出给用户。这种模型对互联网和云计算的集中化算力能力提出了更高的要求,数据中心的场景也随之诞生。


初期的数据中心网络采用企业级的网络设备进行数据中心组网,如 VPC、堆叠,大的二层域和 OSPF 路由协议等。这些网络技术在较小的组网规模条件下并不会出现太大的问题,但伴随着互联网数据中心的算力规模越来越大,企业级的数据中心网络技术就面临着性能、稳定性、大规模运营等方面的挑战。

阿里云 HAIL 全自研数据中心网络

阿里巴巴从 2013 年进入标准化数据中心网络架构阶段,开始基于商用设备进行数据中心网络的标准化构建,并从互联拓扑、互联协议层面进行改善,逐步采用标准通用的适合数据中心组网的技术选型。


自 2017 年,阿里云进入分布式大规模数据中心网络阶段,取名 HAIL 架构,用“Highly Availability,Intelligence,and Low-latency”描述数据中心网络的核心理念。

图 | HAIL:Highly Availability,Intelligence,and Low-latency


同一时期,为了进一步自主掌控数据中心网络技术栈,为产品打造更高效稳定的网络基础设施,阿里云开始了全自研体系的设计和研发。HAIL DC5.2 是第一代采用全自研交换机和光互联的数据中心网络架构,通过单芯片自研盒式设备来构建多平面 scale out(横向可扩展)的分布式数据中心网络。


  • 单芯片的架构设计极大地简化了网络设备软硬件复杂度,让研发工作专注在阿里云 HAIL 数据中心网络架构中使用的功能,考虑整网系统的稳定性,而不必开发陷入复杂但效用不高的多芯片软硬件功能。

  • 多年积累的网络运维沉淀和自动化平台能力,使得数据中心网络系统具备了实现分布式大规模交付运维的条件,大规模网络设备的交付运维监控自动化,从经验积累逐步转变成 NET 系统平台(阿里云网络交付运维自动化的监管控平台)的能力。

  • 全自研的软硬件设备会与后端的监控管控自动化作为一个整体进行设计和研发,使得网络设备与监管控系统的联动更加顺畅,实现了高精度、高实时性的网络性能监控,快速发现问题并自动化响应,数据中心自研系统成为一个整体,而不单单是自研的网络设备。

图 | 阿里云全自研数据中心网络


自 2019 年,阿里云新建数据中心就全面采用了基于 AliNOS (阿里云自研网络操作系统)的自研交换机,如上图,包括园区核心、集群核心、POD 核心、接入 TOR,以及基于 P4 可编程的网关设备 SNA。


  • 多平面互联使得网络集群规模灵活弹性,三层 CLOS 即可实现从几千的小集群到十几万台服务器接入的超大集群;

  • Scale out 使得冗余度更高,单台设备损失对整体数据中心几乎无感知;

  • High-radix 单芯片设备使得转发跳数更少的情况下仍可以做到足够的规模,将数据中心内部的转发时延压缩到极致;

  • 两款设备即覆盖了数据中心 cluster 的所有互联场景,极大降低了供应和运维的边际成本;

  • 阿里去堆叠双上联彻底消除了堆叠系统带来的稳定性隐患,使得数据中心网络的稳定性提升了一个数量级,还同时解决了接入设备无法软件升级的问题,尤其在通过发挥自研网络快速迭代功能实现业务创新的背景下,网络团队在设备升级上掌控主动权显得尤其重要,有助于提升数据中心网络的运维可持续性。

数据中心网络的技术趋势展望


一般而言,云计算数据中心分为两种类型的网络服务,一种是面向用户的网络服务,即通过互联网,或通过多数据中心互联进行数据搬移、访问请求的网络能力;另一种是对外部不可见的网络能力,即内部 IO 互联,如大数据处理、分布式存储等。我们在谈论数据中心网络能力时,更多是在讨论后者,即 DC as a computer 这个“超级电脑”的内部 IO 互联(传统意义上也叫做东西向流量)。

图 | 数据中心网络


近年来,随着计算、存储、网络技术的不断发展,数据中心网络不但要求“稳定的连通性”和“足够的带宽”,而且对“低时延”和“可预期网络结果”的诉求也越来越明显。

  • 高性能计算历来对网络时延有苛刻的要求,简单的带宽堆砌并不能满足要求;

  • 大数据场景,尤其是人工智能场景的机器学习(特别是深度学习)场景催生了 AI 革命的到来,训练推理算力成为各大科技公司的必备基础设施,这要求网络的“带宽+时延”均衡能力,以尽可能短的时间来完成大量数据的分发与聚合;

  • 云计算分布式存储,本质上是“计算存储资源分离 + 本地存储性能要求”,随着存储介质性能的升级,对网络时延越来越敏感,要求不但是“低时延”,在用户体验上“稳定可预期的 IO”尤为关键。


池化也是一个核心趋势。池化的概念很广,对云计算数据中心而言,池化是永恒的主题,但不同阶段池化的均衡点有所不同。

  • 广义上,云计算本身就是算力的池化,对社会提供共享、低成本、简单易用的算力,所以计算存储网络能力的构建都是以“实现大池的同时又向用户提供独享的计算存储网络空间”作为目标。

  • 狭义上,池化指的是计算、存储在更小模型尺度上的池化,比如将异构算力做成大池的同时如何做到给用户以独享性能级别的算力呈现,比如将存储做成大池的同时如何给用户以独享本地存储级别的 IO 性能,其核心挑战是大规模池化后的系统性能如何随着规模线性增长,这其中网络作为系统 IO 是核心决定因素。

图 | 异构算力的池化


新的计算模型,以容器为基础的云原生技术以应用为中心,围绕应用来构建弹性、简单复制、高效运维的基础设施能力,对网络的要求是“弹性”和“密度”,这看似对网络的依赖不是很明显,实际上云原生的形态要求云基础设施呈现为更广义的池化形态,使得云原生的计算、存储、网络、数据库等系统可以屏蔽对底层基础设施的功能感知,这也越来越要求网络与容器的融合能力提升,云原生的网络卸载加速会成为未来数据中心网络的基础能力。


从“大规模算力互联”角度来看数据中心网络未来的发展趋势:


物理网络芯片吞吐性能进一步提升

网络芯片的摩尔演进将进一步提升吞吐性能,这并不单单是通用计算的网络需求曲线延续(实际上通用计算对网络增长的需求在放缓,而异构计算仍需求强烈),还包括网络自身降低单位吞吐成本的目标。在这个过程中会遇到芯片技术、供应生态、成本等方面的挑战,业界会形成新的应对方式。


低时延转发

低时延转发会是高性能计算、AI、存储和数据库等池化场景的竞争力核心,这需要端到端网络的全栈创新,从协议到流控再到网络转发。高性能计算、AI 相对特殊,需要有独立的拓扑设计乃至于特定的转发芯片,这种低时延转发不是一个绝大多数场景的趋势和诉求,但这方面的创新会引领带动其他通用场景的技术演进,发挥“特定场景创新传导给通用场景”的创新效应。

可预期网络


技术发展是一个螺旋上升的过程,数据中心技术趋势会催生网络技术的变革。阿里云很早就预见到了这些技术趋势,并于 2019 年提出了“可预期网络”的未来网络发展方向,近年来也在基于可预期网络构建整个数据中心体系。


以太网最初以“best-effort”这种简单粗暴的方式脱颖而出成为主流,将流控、丢包处理等工作交给灵活的端侧软件,通过端到端的机制来实现,以太网自己则专注于转发,这使得以太网转发能力一骑绝尘,从全局来看这是一种“最经济”的分工模式。


然而,随着数据中心技术趋势越来越明显,以太网的“尽力而为”将会成为一些场景下的短板,如何基于以太网实现“可预期”的网络服务,是网络发展的关键命题。可预期网络意味着应用对于网络的行为结果有相对可控的预期,并基于这个预期来设计应用系统,这会让应用架构更简单。


就好比交通出行,对于中长途旅行,选择飞机虽时间短但存在较大延误风险,选择汽车可有大致可控的范围但旅途时间长,而高铁是准时发车准时抵达,时间相对短且误差最小,不必担心因为行程耽误某个重要会议,这使得整个社会在时间效率上可以做到更好。


可预期网络的理念即是如此,让应用更简单,效率更高。可预期网络,首先要做的是实现技术栈的自主掌控。阿里云已经实现了基于自研的网卡、交换机、光互联来构建自主掌控的数据中心网络,这使得底层网络变得稳定可控。刚刚过去的云栖大会上,阿里云发布了多项可预期网络新品,其中的关键因素是技术栈的自主掌控。

图 | 阿里巴巴网络自研全景图


阿里云提出协同设计(下图)的架构理念来实现端到端的可预期网络。对云计算系统而言,网络是整体系统设计中的一环,基于协同设计的理念,我们通过网络与应用的协同设计、端侧网络与交换网络的协同设计、网络架构创新升级三个方面来实现可预期网络,近年来阿里云基础设施网络团队已经在这三个方面已经取得了很多研究研发成果,大部分技术也已经实现了规模部署。

图 | 端网协同的系统架构与成果


可预期网络将是一个系统工程,从网络物理元素的软硬件全自研,到针对产品技术栈优化的高性能协议和流控,从端到端的网络系统设计再到基于可编程芯片的硬件加速,最后由网络后端监管控系统来支撑整体网络的智能化运维,这些能力融合在一起,形成了一个完整的可预期数据中心网络体系。

图 | 阿里云高性能可预期数据中心网络体系


阿里云数据中心网络将在可预期网络方向上持续投入研究和研发力量,以实现更多的硬核创新,致力于为云计算提供可预期的网络服务,让应用更简单。同时阿里云也将持续贡献社区,引领开放标准,继续与业界同仁一起共建开放繁荣的网络生态。


磐久网络|揭秘阿里云HAIL数据中心网络

用户头像

云布道师

关注

大道至简、教学相长、知行合一 2022-11-07 加入

聚焦“云&科技”领域,每日收获前沿技术与科技洞见。

评论

发布
暂无评论
磐久网络|揭秘阿里云HAIL数据中心网络_阿里云_云布道师_InfoQ写作社区