从 MLPerf 谈起:如何引领 AI 加速器的下一波浪潮
作者|Adi Fuchs
翻译|程浩源、沈佳丽
在深度学习史上,专用化硬件至少在 AlexNet 和 Transformers 这两个革命性时刻发挥了关键作用,介绍这两种架构的论文都在其摘要中强调了 GPU 的作用,并详细说明了它们如何将底层计算并行化到多个 GPU 中,以加快计算速度。
之所以要强调这一点,是因为早在 AlexNet 论文发表的 20 年前,应用于计算机视觉的深度卷积神经网络就已经诞生了;同样,早在 Transformers 论文发表前,应用于自然语言处理的 LSTMs、RNNs 和自注意力机制(self-attention mechanism)也已存在,这说明许多算法基础早就已经有了。
然而,通过展示如何以合理的成本进行大规模计算,论文作者们在上述领域取得了进一步突破。究其原因,是他们掌握了 AI 加速的革命性本质:扩展到日用品(Scale-to-Commodity)。
25 年来,路由器、有线和无线的网络速率增长了 1000 倍
虽然提高单位成本的性能一直是计算机科学家和工程师们的长期目标,但在某些情况下,收益会改变游戏规则,一些过去认为不可能成为日用品的东西会变成日用品。
当芯片性能提高 100 倍,意味着你在两个小时内就可以运行一个复杂的模型,而过去你却得耗费一周时间,甚至可能需要 100 个基于 CPU 的工作站(假设你能够掌握所有这些并行化并支付昂贵的电费)。
过去 20 年,由于互联网带宽增加了 1000 多倍,我们的生活也发生了翻天覆地的变化。你能想象,以前人们需要等待好几个小时才能下载完自己喜欢的电视剧吗?简直太煎熬了。
为了保持 AI 的革命性本质,我们需要考虑哪些模型可以日用品化以及如何将它们日用品化。
1、AI 基准测试的缺陷
近年来,我们见证了 MLPerf 的兴起,这是一个旨在对 AI 硬件和系统供应商报告的性能数据进行标准化的基准测试组件。它由来自 70 多家头部科技公司(英伟达、谷歌、AMD 和英特尔)、多家初创公司(SambaNova、Cerebras 和Graphcore)以及各大学术机构(斯坦福、哈佛和伯克利)等众多行业领导者共同发起。
MLPerf 基准测试包括 ResNet50 和 BERT 等多个 AI 应用,并就不同版块进行评估,包括数据中心训练、数据中心推理和移动设备推理等等。每隔几个月,MLPerf 就会收到各大公司和机构提交的测试结果(主要涉及应用运行时间),然后他们会把结果推送给相应的领域。这样,提交者们就可以根据 MLPerf 竞赛评估各自的表现,一些潜在客户也能挑选出更符合自身需求的 AI 系统。
MLPerf 有一项雄心勃勃的使命宣言:基于真实的模型、公开的数据集和易于理解的指标,为用户提供标准化和无偏见的性能推理方法,从而推动 AI 的应用。
随着 AI 硬件更加普及,我们迫切需要更多的行业标准和指标去了解 AI 硬件的性能。虽然 MLPerf 在性能评估方面已经做得不错了,但我还想提三项可扩大其影响力的改进措施。
(1)规范化
AI 加速器五花八门,不同用户(业余爱好者、研究生、大型企业等)和系统(移动设备、工作站、自动驾驶汽车、HPC/云等)的需求也有很大差异。
此外,构建加速器的方法多种多样,给出一个计算域,你就可以尽情发挥自己的想象力和创造力来协同设计硬件和软件(当然,你还得考虑市场需求和成本)。由于 AI 加速器和系统多种多样,单是比较不同的加速技术就已经相当不易,更不用说定义一种公平、无偏见的加速器对比标准了。
IEEE spectrum 曾发布了一篇名为《AI 训练正在超越摩尔定律》的文章(https://spectrum.ieee.org/ai-training-mlperf),该观点基于 MLPerf 公布的测试结果。摩尔定律认为,晶体管密度每隔 18 个月就会增加约 2.2 倍,但 MLPerf 公布的数据却显示,AI 训练的结果在 18 个月内提升了 16-27 倍。
于是,马上就有人说,“如果我们比摩尔定律快这么多,那么大部分的性能提升肯定都不是因为我们使用了更好的半导体技术,而是因为采用了更好的加速方法和软件技术。”然而,他们的结论并不可靠。因为他们没有规范化的标准来衡量性能,所以才忽视了硬件对性能优化所做的贡献。
ResNet50 训练结果的逐步规范化
让我们深入解读一下这些数字。以 ResNet50 的数据中心训练为例,2018 年,MLPerf 基线结果是使用 640 个 NVIDIA V100 GPU 达到的 6.2 分钟,而在 2021 年,时间减少到了 0.23 分钟。单从数字来看,速度的确是快了约 27 倍,但这是因为使用了 3456 个 TPU v4 加速器,这意味着加速器的数量增加了 5.4 倍。因此,如果我们将这一标准运用到每一个芯片上,实际性能仍会提高 5 倍,这非常了不起。
另外,一个 V100 GPU 芯片上有 211 亿个晶体管,虽然谷歌在 TPU 规格方面并没有透露太多,但其与 TPUv4 竞争的训练芯片(NVIDIA A100、SambaNova SN10、Graphcore mk2 IPU 等)的晶体管数量在 400-600 亿个左右。
因此,我们可以合理地假设 TPUv4 也拥有这么多晶体管,它可以提供每秒 275 万亿浮点运算的峰值性能,所以保守估计 TPUv4 有 400 亿个晶体管,于是我们会推出来每一个晶体管性能提升了 2.6 倍左右。
最后,V100 是使用 12 纳米 CMOS 技术制造,而 TPUv4 很可能是使用 7 纳米 CMOS 技术制造的(如 TPUv4i)。ITRS 和其他学术研究认为,7 纳米的电路应该比 12 纳米的电路快 1.5 倍。因此,考虑到所有这些因素,包括更多的预算,更快和更优的硬件能力,架构帮助性能提升大约只有 1.7 倍左右。
显然,这是一个一阶近似值(first-order approximation),实际性能是由计算半导体技术以外的许多因素决定的,比如内存带宽、缓存、通信带宽和拓扑结构等。更复杂的系统确实需要由更精细和更成熟的软件堆栈来管理,增加芯片或晶体管的数量并不能保证性能有同等倍数的提升。我们必须有这样的思维,才能更好地理解规范化,以及通过晶体管实现性能优化。
为什么靠规范晶体管优化性能如此迫切?原因主要以下四点:
1、这就是加速器存在的意义。如果有一天,晶体管技术真的会像随摩尔定律所说的那样停止发展,未来我们就只有基于硅基技术陷入停滞的前提下实现性能优化;
2、如果缺少公平的比较方法,成绩就只是数字而已,就像一个骑自行车的人和一个开兰博基尼的人之间的比赛毫无意义;
3、芯片的性能不可能无限制地提升,当加速器供应商开发出系列加速器时,他们需要评估每一代加速器的硬件、软件堆栈,从而找出更新换代能够为性能优化所做的真实贡献。同时,还需要知道,有时他们将不再为同一问题提出更好的解决方案,并且会遇到芯片专用化回报的递减以及撞上“加速器墙”;
4、试图在一个问题上投入大量资金从而提高性能的做法不可取,MLPerf 只有坚持自己的加速愿景,并推动 AI 复兴进入第一阶段——扩展到日用品,才能继续维护自己的价值。
AlexNet 和 Transformers 为使用单一系统训练复杂模型打开了大门,并引领了新一轮突破。我们需要更加重视规范化的性能指标,比如单位功率性能或单晶体管性能。我们已经在单位功率性能方面做了些许尝试,但是这样的工作似乎不太有吸引力。功率测量比较麻烦,而且在这方面取得突破也不会像创下新的训练时间纪录那样引起轰动。
最后,虽然知道绝对性能数字是件好事,但普通数据科学家真的关心如何在千万亿级系统(拥有他们负担不起的数千处理器)上提高执行时间吗?这引出了我们后续的讨论。
(2)大众化
MLPerf 基准测试涉及的应用,主要是 2012 至 2018 年间发表的学术研究论文中提到的模型,而 GPU 作为当时深度学习唯一可行的选择,那些论文中的数据都是模型在 GPU 上运行的性能结果。
而且,论文涉及的底层架构特征、超参数和架构规模都会根据 GPU 来配置,模型的优点会与 GPU 的架构优点相结合,当然,最终的测试结果也会受 GPU 的缺点所限制。
如此一来,MLPerf 竞赛本质上其实更类似于“GPU 竞赛”,也让 GPU 从此成为了 AI 硬件的代名词。
不要误解我的意思——我们都应该重视 GPU,因为它是现代 AI 的开路先锋。如果没有 GPU 成熟的硬件/软件堆栈,也就根本不会见证 AI 应用的崛起。但除了 GPU,我们现在还有其他的解决方案,我们也应该探索在其他类型的架构上开发的原生模型的属性,它们可以开辟出一些新领域。
此外,我们可能也不希望只有单一的软件实施方案,或单一类型的架构,这决定了整个 AI 应用领域的成果和局限性。可以假设,如果在 2010 年就已经存在 TPU 和 TensorFlow 生态系统,那 MLPerf 的应用范围也会有不同。
(3)泛化
“When a measure becomes a target, it ceases to be a good measure(当一项指标变成目标,它将不再是一个好的指标。)”-Charles Goodhart
MLPerf 需要克服的最后一个挑战是缺乏应用泛化。大约一年前,我调研了一家业内领先的 AI 硬件供应商的性能评估。经验告诉我,要想达到预期性能并非易事。
当时的情况是,即使在一个新的 Docker 镜像上安装了所有最新的库,重现参加过 MLPerf 的模型的跑分也没能接近他们公布的分数。只有使用供应商从专门的库中提供的模型版本,并且手动配置文件覆盖掉编译器对模型的决策后,才有可能达到他们公布的分数。
最后,当我用了另一款模型替换了供应商提供的模型(两款模型的层数和大小几乎完全相同),并且进行了相同的配置后,却发现性能下降了 50%左右。我听说,其他朋友在使用别的供应商提供的一些模型时也有过类似经历。
使用基准问题测试“慢动目标”(slow-moving targets)会出现上述不理想的结果,这并不奇怪。
目前,MLPerf 基准测试已经连续三年使用同一组应用,因此供应商只需要在测试时给这些应用展示一些不符合实际的“一次性”性能,就能跑出不错的成绩;大多数的数据科学家也并非真的了解底层硬件、编译器和软件库,所以他们不会花费数周进行性能调优,更不用说创建覆盖编译器决策的手动配置文件了。
AI 面临的主要挑战之一是实现“用户到硬件的表达(user-to-hardware-expressiveness)”。AI 领域发展飞速,每天都有数百篇新研究论文发表,所以我们需要对堆栈进行泛化,从而保证它们能够“开箱即用”地运行更多性能良好的用例,而不是仍旧专注于十年前的应用。
MLPerf 应该更加重视,数据科学家们需要的是强大的加速堆栈(acceleration stack),这些加速堆栈可以利用底层硬件来处理空前庞大的工作量。
目前,大多数 AI 硬件供应商都是优先考虑客户模型和需求,而非 MLPerf 应用。如果 MLPerf 再不采取更普遍、更大众化的方式,势必会遇到更多竞争对手,并且人们最终也将不再愿意将其视为行业级基准。
2、重新思考硬件加速
硬件加速一直是推动 AI 领域发展的关键因素之一,因此了解硬件加速的基本假设、现有概念局限性以及新发展方向,对于推动 AI 领域进一步发展至关重要。
跨越创新鸿沟
AI 领域是研究驱动型的,因此工业界和学术界之间有着紧密的共生关系。生产系统中所使用的最前沿的 AI 模型及其理论都出自发表在 NeurIPS、ICML、CVPR 和 ICLR 等顶级学术会议上的论文,包括 AlexNet、ResNet、YOLO、Transformers、BERT、GPT-3、GANs 和 Vision Transformers。此外,其中不少论文都是由学术机构与谷歌、脸书、英伟达和微软等公司的研究实验室合作的成果。
与 AI 应用领域相比,工业界在 AI 加速器领域一直落后于学术界。虽然 ISCA、MICRO、HPCA 和 ASPLOS 等计算机体系结构顶级会议每年都会刊登数十篇关于加速器的新论文,但生产中部署的加速器的核心架构思想几十年前就诞生了,包括内存处理、数据流计算、脉动阵列、VLIW等等。
我们需要积攒更多的想法和创新,并将其具体化为新的产品。新想法的采纳总是很缓慢,这是因为制造芯片需要数年之久,而且 AI 硬件领域竞争激烈,采纳新想法意味着可能需要耗费巨大成本改变现有的一些功能,这样做风险很大。
然而,现在的 AI 加速器领域已经趋于成熟,一些必需的基础已经奠定,我们也知道怎样做才有效。因此,供应商们是时候尝试一些新想法了,通过新的发现来推动 AI 加速器领域发展。要相信,AI 加速器领域仍有创新空间!
让 AI 加速真正作用于 AI
现代 AI 已经激发了我们的兴趣,它让我们思考未来无限的可能性,并提出了一些关于哲学、社会学和伦理学的问题,这些领域的大牛们也在激烈讨论:AI 可以做什么?AI 未来的发展方向是什么?但是,在我们展开想象之前,必须注意 AI 的“鸡和蛋”问题:硬件作为模型的基础,我们很难想象新模型部署在性能较差的硬件上,也就是说,新模型需要新的硬件。
由于制造新硬件的成本很高,所以需要有合理的理由才能拿到资金开始研究新硬件。但如果你没有在合理时间内运行这些新模型的硬件,也就无法证明这些新模型的价值。接着,由于没能展示新模型的实际性能,AI 创新就会受到现有硬件解决方案的束缚。
从 AI 到深度学习:我们在加速什么?
值得一提的是,虽然我们将当前硬件所做的称为“AI 加速”,但其实是在夸大其词。事实上,它更接近于“深度学习加速”,或者是结合了基于张量的深度学习和机器学习算法的产物,可以在矩阵乘法引擎上运行良好。
有人可能会说,“好吧,我们几乎都听说过深度学习,它是当今最具价值的‘杀手级应用’”,但这正是关键所在———我们主要研究深度学习,因为算法库和硬件都是为深度学习量身定制的,因此深度学习是我们目前能够探索的领域,这是开发加速硬件时需要注意的。
我们通过协同设计算法和硬件,已经从构建通用处理器发展到搭建各种体系结构;然而,我们将数据路径长度优化为固定大小的变量,因为有固定大小的算法引擎和固定字大小的内存和连接,并且我们尽量使用矩阵乘法,因为它拥有简单且可预测的控制流。我们不希望过度优化硬件导致其性能大幅下降,这会妨碍探索新功能,从而阻碍算法进步。
虽然我不是神经科学家,但我知道大脑拥有许多复杂的结构,这些结构以不规则的方式进行通信,所以我们可能无法使用矩阵乘法、固定宽度数据路径和非线性函数来模拟它们。
因此,我们需要思考,这种硬件进化是否让应用硬件协同设计空间中收敛到局部最优?也许,如果脱离张量密集型模型就能实现“AI 加速 2.0”,迎来 AI 硬件的下一波浪潮。
那时,“AI 加速 2.0”不需要将矩阵相乘,但支持不规则的计算模式,并拥有灵活的表征和任意并行化的计算引擎。具有这些特性的加速器(或此类加速器的异构集成)将拥有更广泛的应用范围,也更接近真正的 AI。
总而言之,我们需要思考:注意力机制是我们所需的全部吗?卷积神经网络(CNN)是最终的答案吗?不管答案是什么,卷积神经网络确实凝集了我们大部分的研究成果,但也许 AI 还有更多可以扩展到日用品的东西。
(本文经授权后发布,原文:
https://medium.com/@adi.fu7/ushering-in-the-next-wave-of-ai-acceleration-a7a14a1803d1)
其他人都在看
欢迎下载体验 OneFlow v0.7.0 最新版本:https://github.com/Oneflow-Inc/oneflow/
版权声明: 本文为 InfoQ 作者【OneFlow】的原创文章。
原文链接:【http://xie.infoq.cn/article/9a55871ad1af18ee384637435】。文章转载请联系作者。
评论