双引擎 GPU 容器虚拟化,用户态和内核态的技术解析和实践分享
如何让硬件算力发挥最大效率,是所有资源运营商和用户非常关注的问题。百度作为一家领先的 AI 公司,拥有可能是业界最全的 AI 应用场景。
在这篇文章中,将和大家分享和讨论 GPU 容器虚拟化在复杂 AI 场景中的解决方案和厂内的最佳实践。
下面这张图片的左右两部分,在不同场合下已经多次展示过,放到这里主要想强调算力需求 —— 硬件算力的指数型增长,与真实应用场景中利用率偏低资源浪费之间的矛盾。
左边的部分是 OpenAI 统计的数据,从 2012 年以来,模型训练所需的算力每 3.4 个月翻一倍,截止到 AlphaGoZero 这类的大模型,训练算力已经增长了 30 万倍,并且这种趋势还在继续。一方面,随着算力需求的增长,主流 AI 加速单元计算性能也在以每两年翻一倍的速率增加。另一方面,资源利用效率却制约着硬件效能的充分发挥。
右边的部分是 Facebook 在 2021 年对数据中心 Machine Learning 负载分析的结果。大量的 AI 算力损失在故障、调度、时间片浪费、空间单元浪费等环节,真正的算力利用率不到 30%。我们相信,这也是国内各大基础设施运营商所面临的现状。
刚才提到在线集群不到 30% 利用率可能不符合很多同学的认知。在线的很多同学可能是模型和算法的开发者。我们普遍的认知是,在训练和测试过程中利用率可以保持很高的水平,甚至可以达到 100% 利用率。
但模型在生产环境上线,会受到很多约束,这些约束导致利用率远远达不到我们的预期。
下面我们用有限的篇幅总结一下主要的制约因素:
模型特点:每个模型网络不同,调用的底层算子组合不同,很大程度上会影响 GPU 的利用率。
服务 SLA:不同场景下的服务需要不同的 SLA,有的服务实时性要求较高,甚至需要严格控制在 10ms 以内,那么这些服务就不能通过增加 batchsize 的方式提升利用率,甚至 batchsize 只能为 1。
流量模式:不同模型算法服务于不同的应用场景,比如 OCR 识别,可能在工作期间被频繁调用。而语音识别则更多的在通勤时间或者娱乐休闲时才会被调用,这样就导致了一天中 GPU 利用率的峰谷波动。
优化效果:根据模型的迭代频率以及覆盖场景的不同,模型的优化粒度也不尽相同。可想而知,一个未经充分优化的模型利用率也很难达到较高的水平。
容量冗余:模型上线前都要经过详细的容量规划,最大流量是多少,是否需要多地域,在此过程中会预留难以忽略的容量冗余,这些冗余在平时也造成了算力的浪费。
在上面种种约束条件的制约下,真实生产环境的利用率可能是接下来我们要展示的。我们从复杂多变的在线生产环境中抽象出这几种利用率模式。
均值偏低型:如左上图,为一个真实的在线推理业务,由于模型特点和服务 SLA 的限制,GPU 的峰值利用率只有 10%,平均利用率会更低。
峰谷波动型:如左下图,是典型的在线推理业务的利用率模式,服务在白天会达到高峰,在深夜至第二天早上是利用率的低谷,全天平均利用率只有 20% 左右,低谷利用率只有 10% 不到。
短时激增型:如右上图,利用率曲线基本与左下图一致,但在夜间黄金时段会有两个明显的利用率高峰,高峰阶段的利用率高达 80%,为了满足高峰阶段的服务质量,该服务在部署过程中会预留不小的 buffer,资源平均利用率也刚刚超过 30%。
周期触发型:如右下图,是典型在线训练场景的利用模式,在线训练任务介于离线训练和在线推理之间,这是一种周期性批处理的任务。例如每 15 分钟会有一批数据到达,但这批数据的训练只需要 2-3 分钟,大量的时间 GPU 处于闲置状态。
AI 应用场景复杂多变,上面只是列举了四种典型场景。如何在复杂场景中,平衡业务性能与资源效率,是我们在 GPU 虚拟化中遇到的第一个挑战。
GPU 虚拟化过程中我们面临的第二个挑战就是缺乏完善的 GPU 隔离与混布机制。
我们以目前主流的 NVIDIA GPU 为例。典型的 AI 软硬件生态都分为这样几个层次 ——应用 & 框架层,运行时层,驱动层,硬件层。
首先最上层是用户的应用,这里包含了各种常见的框架 PaddlePaddle、TensorFlow、PyTorch 等等。在应用层之下是硬件提供商封装的 API 接口层,包含各类常用算子库与硬件运行时访问接口。在这层 API 接口之下,是与硬件沟通的驱动层,该层位于内核态,是直接与设备沟通的软件接口层。位于最底层是真正的 AI 加速硬件,负责算子的执行。
传统的虚拟化方案,都会结合驱动内核态以及硬件虚拟化逻辑实现。这两个层次是硬件提供商最核心的 IP,一般是闭源的。后续会提到,当前 GPU 原生的的隔离机制在灵活性和分配力度上都无法满足云原生场景下的使用需求。
除了隔离机制,现有的混布机制也很难满足复杂场景的需求,我们看到业界有很多共享调度的开源方案,这些开源方案只是从资源的层面把两个任务简单的调度到一张卡上。在实际场景中,简单的共享会造成业务之间相互影响,长尾延迟甚至吞吐的恶化导致简单共享无法真正应用于生产环境。
在上文利用率模式分析一节我们看到不同的业务,不同的场景下,利用率模式都不尽相同。如何抽象业务场景,定制混布方案,是生产环境落地的关键。
为了让大家更全面地了解 GPU 的发展以及虚拟化历史,这里我们用一张图来展示 GPU 虚拟化发展史。
GPU 应用于通用计算最早可以追溯到 G80 时代的 Tesla 架构,是第一代实现统一着色器的架构,用通用处理器 SM 替代了原来的顶点、像素管线分离的图形图像处理器。
百度最早引进的 GPU 可以追溯到 Fermi 架构。从这个时间点开始,业界就出现了一批虚拟化方案,其中大部分以 API 劫持为主。这里的典型代表是 rCUDA,该项目最初由学术团体维护,直到近期,还保持一定频率的更新和迭代,但看起来以学术研究为主,并没有在生产环境大范围使用。
百度大规模引入 GPU 是在 Kepler 架构,Kepler 架构开启了百度自研的超级 AI 计算机 X-MAN 时代。X-MAN 1.0 首次实现单机 16 卡配置,可以在 PCIe 硬件层面实现 CPU 和 GPU 的动态绑定和灵活配比。受限于单卡性能,当时更多的考虑是扩展,而不是切分。
随后的 Pascal 架构、Volta 架构、Turing 架构性能有了飞速提升,这时虚拟化的需求日益显著起来。我们看到,最早从 Kepler 架构,NV 官方提供了 GRID vGPU 虚拟化方案,最开始主要是面向图形渲染和远程桌面场景。在 2019 年前后,针对 AI 和高性能计算场景也提供了解决方案。但这些方案都是基于虚机的,在 AI 场景中很少使用。
在 Ampere 这一代,NV 推出了 MIG 实例切分方案,该方案在硬件层面实现了 SM、MEM、L2 Cache 等多种硬件资源的切分,提供了良好的硬件隔离性能。但该方案从 Ampere 架构开始支持,且对于卡的型号还有一定的限制。只有 A100、A30 少数几个型号可以支持。而且即使切分之后,单个实例的性能也超过了 T4 算力,并无法很好地解决当前生产环境的效率问题。
大家对 GPU 架构与虚拟化历史脉络有了一些印象之后,我们来详细介绍下实现 GPU 虚拟化的几个主要层次,或者说是技术路线。
实现资源虚拟化隔离,首先需要资源在时间或空间维度是可分的,在用户视角看来就是多个任务可以并发(concurrent)或并行(parallel)地执行。
这里我们在用户态、内核态、硬件多个层次上讨论一下并行或并发空间。由于 NV 的软硬件生态是闭源的,这里的示意图是我们综合架构白皮书,逆向论文和我们自己的理解而绘制的,不准确的地方还希望大家及时指正。
用户态方案
我们从上至下来看这张图,首先多个进程在 GPU 来看,天然就是并发的,也就是时分复用的。驱动和硬件负责以时间片轮转的方式进行任务的切换。利用这层机制,我们可以在 API 层面上实现计算资源、显存资源的限制,达到虚拟化的效果。这里的 API 可以分为两层,一层是驱动 API,这层 API 紧贴驱动,是所有上层调用访问 GPU 必经之路,只要控制了这层 API,就相当于控制了用户的资源访问。这里先提一句, NV 提供的 MPS 技术可以实现空分复用,这也为业务性能的进一步优化提供了可能。在后续落地实践部分我们会详细展开。
内核态方案
再往下一层是内核态,无论是虚机层面的全虚拟化、半虚拟化,还是近两年各大云厂商的容器方案,都是在内核层实现了系统调用拦截和 MMIO 劫持,内核态最大的困难在于很多寄存器和 MMIO 行为没有很好的文档说明,这些都需要复杂的逆向工程。
硬件方案
内核态之下是硬件层,真正的并行是在这一层进行保证的,无论是 NV 的 MIG 技术还是百度昆仑的 SR-IOV 技术,都在硬件逻辑上进行了算力切分,实现了真正的并行和空分复用。如昆仑可以实现 1/3,1/2 的硬件划分,A100 可以实现最小 1/7 粒度的资源划分。
上面我们花了不小的篇幅向大家介绍了 GPU 虚拟化的挑战和现状,接下来我们看百度内部是如何应对这些挑战的。
这张图展示了百度智能云 ——https://cloud.baidu.com/product/CCE/cloud-native-ai.html?trace=cloudtech220714&pageResource=cloudtech220714。
这里强调容器,因为我们相信,未来 AI 全链路应用会逐步收敛到云原生平台,实现全容器化开发、训练、推理。据 Gartner 调研显示,2023 年 70% 的 AI 任务将会容器化部署。百度内部容器化从 2011 年就开始了,目前已经有 10 余年的部署和优化经验,我们也致力于将这部分真刀真枪打磨出来的产品能力和优化经验贡献给社区和广大的用户。
这里还强调了双引擎。在整体架构中我们采用了用户态和内核态两套隔离引擎,以满足用户对隔离性、性能、效率等多方面不同侧重的需求。
在隔离引擎之上,是资源池化层,该层次基于我们对软硬件体系深刻理解,逐步实 AI 加速资源的解耦、拉远和池化,是我们面向未来基础设施打造的池化抽象层。
在资源池化层之上,是 Matrix / k8s 统一资源调度层(这里的 Matrix 是百度厂内的容器化调度系统),在调度机制之上,我们会根据不同业务场景,抽象出来多种混布策略,包括共享混布,抢占混布,分时混布,潮汐混布等。这些混布策略,后续实践部分会详细展开。
依托于资源隔离和资源调度之上的是 AI 业务的全链路场景,包括模型开发、模型训练、在线推理。
接下来会分别给大家分享用户态和内核态隔离引擎的实现。
下图是用户态隔离引擎核心架构示意图。位于架构图最上的是用户应用,这里包含了各类常用框架,如 PaddlePaddle、TensorFlow、PyTorch 等。
位于用户应用之下的是一系列的 API Hook 接口,也是基于这套接口我们可以实现 GPU 资源的本地使用和远程挂载。通过替换框架依赖的底层动态库,实现资源的控制和隔离。需要重点说明的是,该方案对于应用是完全透明的,必要的库替换操作已经由容器引擎和调度部分自动完成。
CUDA API 在 Hook 之后会通过两个通路最终到达执行器。在这里,绝大多数 API ,如设备管理 API 经过 Hook 之后不做任何操作直接 pass-through 给执行器执行。少数和资源申请相关的 API 会经过一层拦截,通过这层拦截实现用户态虚拟化的一系列功能。这层的逻辑实现得足够高效,对性能的影响几乎忽略不计。
目前用户态隔离引擎可以提供丰富的隔离和控制功能,包括基础的显存隔离、算力隔离。我们还扩展了很多高级功能:编码器隔离、高优抢占、显存超发、显存池化等等。
用户态方案的优点是性能好,长尾延迟低,适合追求机制性能、极致效率的业务场景,如延迟敏感的在线推理业务。
在隔离的基础上,我们提供远程功能,远程的引入将大大提升资源配置的灵活度和使用效率,这一点我们将在本文最后展开。
本次分享是一次技术分享,这里用少量篇幅展开一下远程技术的重点和难点,希望能激发大家的业务思路和技术讨论。
根据我们在前文虚拟化挑战中讲到的软硬件技术栈, GPU 的远程访问大致上也可以在硬件链路层、驱动层、运行时层和用户层实现,但经过深入的技术分析并结合对业务场景的理解,我们认为目前最适合的还是运行时层。
确定运行时层技术路线,如何实现?技术的重点是什么?我们认为主要是语义一致性问题。基于运行时的远程,需要把原始的 local 进程拆分为 client、 server 两个进程。CUDA 运行时是闭源的,内部实现逻辑无从探究。如何保证拆分进程后仍保持原有的程序逻辑和 API 语义,这里我们用一对一线程模型保证 API 内部的逻辑和语义对齐。
远程实现的难点是 API 繁多的问题,运行时除了 libcudart.so 这个动态库,还涉及 cuDNN、cuBLAS、cuFFT 等一系列动态库和 API,涉及数千个不同的 API 接口。我们用编译技术实现了头文件的自动解析和代码的自动生成,并通过逆向技术完成了隐藏 API 的解析。
解决远程方案 0-1 适配之后,接下来的向后兼容性其实是比较好解决的。目前看来 CUDA API 相对稳定,新版本只需要少量增量适配即可。
上面多次提到空分复用和时分复用。这里做一下详细的解释:
时分复用:顾名思义,是时间片层面的复用。这里与 CPU 的进程调度类似,在单一时间片内,只有一个 GPU 进程在运行。多个 GPU 进程之间在微观层面上是交替运行的,只能成为并发(concurrent)。这也导致,在某一时间片内,如果该进程无法很好的利用计算资源,这些计算资源就是浪费掉的
空分复用:与时分复用不同,空分复用时,在某一微观时刻,多个进程是可以同时运行在一个 GPU 上的,只要这个 GPU 的资源没有用满,其它进程的 Kernel 就可以发射上来,两个进程的 Kernel 在微观层面上是交织运行的,真正实现了并行(parallel),进一步利用 GPU 资源。
如综述部分介绍,当前常见的虚拟化方式,包括内核态虚拟化、NVIDIA vGPU 虚拟化,在底层实际都是基于时间片轮转的时分复用方案。
NV 面向多进程并发场景推出了 MPS ——多进程服务解决方案,该方案可以做到空分复用,是目前看到同时兼顾效率与性能的方案。
这里简单介绍一下 MPS,MPS 相当于把两个进程的上下文融合成了一个进程,融合后的进程将之前两个进程的 Kernel 交织到一起进行发射。这样做有两个好处:
进程之间无需上下文切换,减少了上下文切换的开销。
同一时刻,不同进程的 kernel 交织,提升了资源空间利用率。
说到 MPS,不得不提被人诟病的一个缺点——故障隔离问题。
如何解决这个 MPS 稳定性问题的呢?百度智能云结合调度、容器引擎、业务保活提出一整套进程融合共享方案。
通过 kill 命令重定向实现业务进程优雅退出
通过 MPS 状态检测机制实现健康检查和假死检测
通过服务保活实现用户进程自动重启
该方案已经覆盖商业(延迟敏感型重要业务)90%+ 资源,并长期运行超两年的时间,在提供极致性能的同时,相信能够满足绝大多数用户对稳定性的需求。
随着 MPS 的接受程度越来越高,NV 也不断增强 MPS 的稳定性。这里可以提前透露一个好消息,NV 在今年下半年会在 MPS 稳定性上大幅度增强,包括假死状态检测,进程优雅退出这些功能都会成为 MPS 产品的一部分,MPS 的稳定性和易用性会进一步提升。
在介绍高优抢占功能之前,先和大家分享一下高优抢占的业务场景。根据我们和厂内外不同用户的讨论,大多数 AI 应用生产环境中按延迟敏感程度可以分为在线、近线、离线这三类任务。
在线任务,对延迟最高,一般是实时响应用户请求的推理任务;
近线任务,是一般是批处理任务,对单条日志的延迟没有要求,但对一批数据的完成时间有小时到分钟级不等的要求;
离线任务,对延迟无要求,只关注吞吐,一般是模型训练类任务。
如果我们把延迟敏感型任务定义为高优任务,把延迟不敏感的近线离线任务定义为低优任务。并在两类任务混布时根据任务优先级不同定义不同的 kernel 发射优先级,就是我们上面提到的高优抢占功能。
实现原理如下图所示,用户态隔离引擎为高优任务和低优任务各自维护了一个逻辑上的 kernel 队列。当整体负载较低时,允许两个队列同时发射 kernel,这时两个队列的 kernel 是交织在一起运行的。一旦负载增高,分级发射模块就会第一时间 pending 低优队列的发射,从而保证高优任务的执行延迟。
该功能的优势是保证离线吞吐的同时,减少甚至避免了在线任务的影响。
同理,我们先介绍分时混布的定义和场景。
分时混布,在混布模式上有点像时间片轮转的共享混布。不同之处在于分时混布针对显存不提出了显存 swap 方案,这样在显存长期占用但算力间歇使用或偶尔触发的场景就派上了用场。当进程需要算力时获取显存的访问权限,当进程完成运算后释放显存的访问权限,让其它等待该权限的进程获得运行机会,让间歇闲置的 GPU 资源得到充分利用。
分时混布的核心技术是显存 swap。我们可以类比 CPU 的内存 swap,当某一进程的内存不够用了,系统会根据一定的策略换出一部分系统内存资源到磁盘,从而腾挪出空间给在运行的进程使用。
显存 swap 的实现原理如下图所示。我们在显存的物理地址上维护了一个显存池,上层通过资源锁来确定哪个进程有权限使用 GPU。当进程获得锁时,显存便会从内存或磁盘搬运到物理显存池中,进一步映射到虚拟地址空间供进程使用。当进程释放锁时,会保留进程的虚拟显存空间,将物理显存搬移到内存或磁盘上。该锁是互斥的,只有一个进程可以获得锁,其它的进程 pending 在等待队列上,以 FIFO 的方式依次获得资源锁。
上面介绍了用户态隔离引擎的功能实现,在实际应用中,性能如何,对用户的影响如何?这里我们直接上测试数据。
下图是我们在公开测试集 MLPerf 上选择典型模型 ResNet-50 Server 场景下的数据对比。图中的柱子从左至右依次表示独占、裸混、用户态隔离、内核态隔离下的性能。
左图是平均吞吐对比,在推理场景下请求是间歇触发的,我们可以看到,无论何种方案在吞吐下都能直接达到发压值。这里想说明,推理场景下吞吐并不能很好的展示虚拟化性能,在生产环境中落地时应该更多的关注延迟。
右图是 P99 分位延迟的对比。可以看到,在低压力下(QPS = 40)用户态,裸混对长尾延迟的影响基本一致,内核态由于采用了时分复用,对长尾延迟影响稍大。我们继续增大压力,在 QPS = 60 时,用户态的优势就显现了,空分复用大大降低了对长尾延迟的影响。随着压力的进一步加大,用户态进程融合方案甚至比其它混布方式有数量级的提升。
尽管长尾延迟控制不如用户态,但在隔离性方面,内核态具备优势,更侧重于对隔离要求有强诉求的场景。
下面我们来了解下内核态隔离引擎的技术实现。
首先来看内核态虚拟化实现的特点,包括如下:
内核态实现;隔离性好:支持显存,算力和故障隔离;显存 MB 级隔离;算力 1% 级分配;支持 P4,V100,T4,A100/A10/A30 等主流 GPU;支持 410 到 510 GPU 驱动版本;用户态运行环境无需任何改变;支持容器化部署。
不同于用户态的实现,内核态虚拟化对 GPU 的隔离功能都是在内核态实现。下图的左半部分是我们内核态虚拟化实现的一个架构图,从底层到上层,分别是 GPU 硬件,内核层,用户层。
硬件层面就是我们的 GPU,这个 GPU 可以裸机的 GPU,也可以是透传的 GPU。
内核层的底下是 GPU 原有的驱动,它实际控制着 GPU 的功能,真正操作 GPU 的都是这个驱动,然后 GPU 驱动上面就是我们实现的 GPU 虚拟化的一个内核模块,也就是 GPU 拦截驱动,就是黄色的部分,包含三部分功能,包括显存拦截,算力拦截和算力调度。分别实现的显存隔离,算力隔离。
用户层,首先是拦截接口。这个接口是由拦截模块提供的,分为两部分:一部分是设备文件接口,一部分是配置拦截模块的接口。设备文件是提供给容器的,我们先来看容器。容器上面是应用,底下是 cuda runtime,在下面是 cuda 底层库,包括 driver api/nvml api 等。通过把我们的设备文件提供给容器作为假的设备文件,那么上层 cuda 访问时,就访问的是我们的设备文件,这样就完成了 cuda 底层库对访问 GPU 驱动的拦截。
我们在内核的拦截模块,会拦截所有访问的系统调用,拦截并解析,然后把真正的访问,重定向到真正的 GPU 底层驱动。GPU 底层驱动处理完后,把结果返回给我们的拦截模块,拦截模块再次进行处理,最后把结果返回给容器里的底层库。
简单来说,就是通过模拟设备文件来拦截底层库对 GPU 驱动的访问,通过拦截、解析和注入等操作,完成显存和算力等拦截。
目前显存隔离是通过拦截所有显存相关的系统调用来实现,主要包括显存信息,显存分配和显存释放等。而且当前显存隔离只能静态设置,不能动态改变。相对用户态可以支持显存超发,内核态还无法做到显存超发。
算力隔离方面,通过拦截进程的 CUDA Context 来获取相关信息。调度对象是进程相关的 CUDA Context。CUDA Context 对应的算力资源包括计算资源(Execution)和内存拷贝(Copy)资源。每个 GPU 有一个内核线程进行此 GPU 上所有 CUDA Context 的调度。
我们实现了 4 种内核态算力调度算法:
Fixed Share:每个 POD 分配固定的算力资源,即整个 GPU 的算力固定分为 n 份,每个 POD 分 1/n 的算力。
Equal Share:所有活跃的 POD 平分算力资源,即活跃的 POD 数为 n,每个 POD 分 1/n 的算力。
Weight Share:每个 POD 按照权重分配算力资源,即整个 GPU 的算力按照权重值分配给每个 POD。不管 POD 是否有业务负载,都按照权重分配算力。
Burst Weight Share:活动的 POD 按照权重分配算力资源,即每个 POD 分配权重值,活跃的 POD 按照权重的比值分配算力。
内核态因为是通过时间片进行算力调度,所以对于延迟敏感型的业务不是很友好。我们特别开发了在离线混部技术,通过在线业务和离线业务进行混部,大大提高在线业务的响应速度的同时,也能让离线业务共享 GPU 的算力资源,达到提高 GPU 资源使用率的目标。我们在离线混部的特点是:
在线 POD:推理任务,平时占用少量算力。
离线 POD:训练任务,平时占用大部分算力。
当在线 POD 有任务负载时,立刻抢占离线 POD,占用全部算力提供推理服务。当任务负载结束时,释放算力给离线 POD。
以下是内核态算力隔离的评测结果:
测试环境是单卡 V100 SXM2 16G,训练场景下测试吞吐,测试采用 horovod 框架,模型为 resnet50。
POD 1 和 POD 2 的 weight 比值为 1:2。
上面的图的结果,可以看出,POD 1 和 POD 2 吞吐比值在 45~50%,大概就是 1/2 这样一个结果,符合我们预设的值。同时 POD SUM 较 Native 有 2~4%的损耗,因为算力隔离需要对 Cuda Context 进行切换操作,不可避免有损耗,但是我们的损耗在 5% 以内,可以说在容忍范围中。
我们比较一下内核态和用户态的特点。
故障隔离方面,内核态较用户态有优势,而且内核态不需要对底层库进行替换。用户态算力调度采用时分加空分复用,内核态采用的时分复用。用户态高级功能包括在离线混部,显存超发到内存、编解码实例(将 AI 加速卡的编码跟解码资源独立分配),内核态我们也支持在离线混部等。
如何利用虚拟化技术提升 AI 场景中 GPU 的利用效率,下面结合厂内实际案例分享一下大规模 AI 场景下的最佳实践。
我们首先看一个推理服务中的典型场景。由于模型本身架构或者是服务延迟要求较高,某些任务只能在 batchsize 很小,甚至为 batchsize 为 1 的配置下运行。直接导致 GPU 利用率长期偏低,甚至峰值利用率仅有 10%。
这种场景下,首先应该想到的是多个低利用率任务之间进行混布。
我们把这种混布策略归纳为共享混布。无论在开发、训练、还是推理场景,在多个低利用率任务之间,我们都可以采用共享混布。
结合上面提到过的进程融合技术,可以在保证服务延迟的基础上,实现 2 个实例甚至多实例的共享混布,资源利用率提升 2 倍以上。
于此同时,多数 GPU 上都有独立的编解码资源。在大多数场景下,如左下图所示,该资源长期闲置。我们可以在共享计算资源的基础上,再混布一个编码或解码实例,进一步提升资源效能,激活闲置资源。
推理服务一个典型的负载模式是一天中峰谷波动明显,且会出现不可预期的短时间流量激增。这就出现了虽然峰值很高,但平均利用率却很差,均值经常不到 30% 甚至 20%。
这类波动明显,短时激增的服务如何进行效率优化呢?我们提出了抢占混布策略。
抢占混布是在峰值较高且延迟敏感的高优业务上混布一个延迟不敏感的低优任务。这里的高优、低优是由用户自己定义,并且在申请资源时显式声明的。我们在百度内部实践中,会将近线、离线的刷库或训练任务定义为低优,这类业务对吞吐有一定的要求,对延迟基本上没有要求。
利用虚拟化功能中的高优抢占机制,高优任务时刻掌握占用资源的主动权。当流量处于波谷时,整卡的负载不高,低优任务可以正常运行,一旦流量处于波峰或者出现短时激增,高优抢占机制可以实时感知并且在 kernel 粒度上进行算力的抢占,此时低优任务会被限流甚至完全 pending,保障高优任务的服务质量。
这种混布模式下可能会出现显存不足的情况,此时算力可能还有很大冗余。针对这类场景,我们提供了隐式的显存超发机制。用户可以通过环境变量对低优任务进行显存超发,混布更多的实例,确保随时有算力填充利用率的波谷,实现整体利用效率最大化。
第三类业务场景大家可能并不陌生,这就是显存常驻、算力间歇性触发场景。典型的代表业务是开发任务和在线训练。
这里以在线训练为例。我们知道很多模型需要根据用户每日甚至每时的数据进行在线更新,例如推荐模型,这就需要用到在线训练。和吞吐实时打满的离线训练不同,在线训练需要积累一批数据后触发一次训练。百度内部,典型的模式可能是 15 分钟到达一批数据,但真正的训练时间只有 2 到 3 分钟,剩余的时间里这个训练进程就常驻显存等在那里,直至下一批数据从上游抵达。在此期间,利用率长期为 0,造成了大量的资源浪费。
这类任务由于显存基本占满,无法使用上面提到的共享混布或抢占混布。结合之前提到的显存 swap 机制,我们提出了分时混布策略。
分时混布类似于时间片轮转的共享混布,但此时显存也会随着计算的上下文一同被换入换出。由于底层的虚拟化层无法感知业务何时需要计算,我们针对每张 GPU 卡,维护了一个全局的资源锁。并封装了相应的 C++ 和 Python 接口供用户调用。用户只需要在需要计算的时候申请这把锁,显存就会从其它空间自动换入到显存空间;在计算完成后释放这把锁,对应的显存会被换出到内存或者磁盘空间。利用这个简单的接口,用户可以实现多个任务分时独占 GPU。在线训练场景中,使用分时混布,可以在拉升整体利用率的基础上实现最高 4/5 的资源节省。
上面提到的三个场景的最佳实践,在百度内部业务上已经实现了长期验证和规模落地。相关功能也已经上线百度百舸·AI 异构计算平台,大家可以即刻申请和试用。
这里我再用三分钟左右的篇幅讲一下还在内部验证中的功能,这些功能将会近期完成在百度百舸平台的上线,进一步解决在大规模 AI 场景下常见的配比不均、供需失衡、资源碎片等问题。
做基础架构的同学一定会经常听到资源的解耦、池化这类概念。如何将池化概念落地,并转化为实际生产力,是我们一直以来积极探索和推进的。早在 2015 年,我们就实现了业界首个基于 PCIe Fabric 方案的硬件池化方案,并在百度内部实现规模化落地,这就是刚才提到的 X-MAN 1.0(目前已经演进到 4.0)。通过 PCIe Fabric 网络配置 CPU 和 GPU 之间的互联,实现资源的动态分配,解决各类场景下的配比问题。受限于硬件连接和协议的限制,该方案只能解决机柜内部的池化。
软件层池化是我们认为更灵活的技术方案。随着数据中心网络不断升级,100G 甚至 200G 的网络未来会成为基础设施的标配,高速网络为资源池化提供了通信高速路。
资源的解耦和池化让业务拥有更大的灵活度,也为效能优化提供了更大的想象空间。例如 CPU 和 GPU 之间的配比问题,开发场景中长期资源占用供需失衡效率低下的问题,训练场景中资源碎片任务阻塞问题、设备异常训练重启问题,这类场景都能在池化及衍生方案中得到解决。
最后,上述分享的所有的虚拟化技术和最佳实践,都已经上线百度百舸·AI异构计算平台。在百度智能云官网搜索“百度百舸”,即刻加速 AI 任务,激发业务想象!
Q & A 精选
Q:一般资源通过 namespace 和 cgroup 来实现容器化。请问 GPU 通过什么技术实现资源控制的?
A:namespace 和 cgroup 都是内核提供的机制,本质上还要依赖于硬件提供的相关能力。这一点在目前 GPU 上是不存在的,GPU 目前并长期是闭源状态,这些能够 upstream 到内核主线的功能只有硬件提供商有能力提供。当前三方的方案都是在用户态或内核态做的非标准实现,暂时还没有办法纳入 namespace 和 cgroup 范畴。但可以认为 GPU 虚拟化要实现的就是这些接口下面对应的机制,至于是否能标准化是另外一个更大的问题。
Q:请问除了 GPGPU 的虚拟化技术,咱们是否有开展 NPU 相关虚拟化技术?是否与 NV 技术栈进行解耦。谢谢!
A:我理解这里说的 NPU 应该是 Network Processing Unit,泛指当前所有的 AI 加速硬件。我们正在做其它 AI 加速硬件的虚拟化适配。首先是昆仑芯,我们已经在昆仑芯上做了上面提到虚拟化能力的适配。随着场景的扩展,会不断适配其它主流加速硬件。
Q :用户态和内核态是两个不同的产品吗?
A:是同一个产品,底层不同的实现方式,用户接口层面是统一的。
Q :用户态虚拟化能做到什么颗粒度?
A:算力做到 1% 粒度切分,显存做到 1MB 切分。
Q :请问内核态的虚拟化是否会造成较大的控制开销?
A:内核态虚拟化是基于时间分片的,这里的开销是时间分片带来的,精准的隔离必然会带来算力的损失。如果是指对应用性能带来的开销,确实内核态会比用户态大一些。
Q :按照时分实现的方案,在线推理感觉还是自由竞争平均时间更快。
A:按照我们测试结果来看,性能由好变差依次为:进程融合,裸混(自由竞争),硬限隔离。
Q :GPU 这两种虚拟化的方式可以在一个 k8s 集群共存吗?
A:从机制和原理来讲,是可以做到共存的。但目前从产品维度不想设计的这么复杂,所以还是分开的。如果后续业务有广泛的诉求,我们会考虑推出类似共存的方案。
Q :请问可以详细介绍下 k8s 的调度器如何扩展吗?是否需要节点上的 agent 上报 GPU 拓扑和总量?
A:需要,这块需要单机的 agent 上传资源(包括显存资源和算力资源)和拓扑信息。
Q :请问时分和空分的选择上有什么建议吗?
A:延迟敏感型的在线推理任务,建议选择基于进程融合的空分方案。要求严格隔离的场景建议选择时分方案。其它场景选择两者没有区别。
Q :内核态能支持到哪个 CUDA 版本?如果 NV 更新了,百度智能云的更新周期要多久?
A:内核态因为是在内核做的虚拟化,对 CUDA 版本没有特别要求,目前支持所有 CUDA 版本。如果 NV 更新 CUDA,预期不需要做特别支持工作。
Q :使用内核态,需不需要使用专门的百度智能云提供的 OS 镜像?专用的驱动程序?
A:内核态不需要百度智能云专门提供 OS 镜像。目前我们对 centos7 和 ubuntu 都做了支持。不过需要用我们自己的部署框架来使用。对容器镜像没有特别要求,都可以透明支持。
Q :是不是只有在公有云才能使用?能私有化部署吗?
A:公有云和私有云都可以部署和使用。
- - - - - - - - - - END - - - - - - - - - -
请关注微信公众号“百度智能云技术站”
以免错过后续精彩内容
版权声明: 本文为 InfoQ 作者【百度智能云】的原创文章。
原文链接:【http://xie.infoq.cn/article/64df7b9a6606c139753658758】。文章转载请联系作者。
评论