用 PyTorch, Profiler 和 TensorBoard 优化 AI 训练性能
在 AI 模型的训练过程中,每一步训练基本上会包括如下的过程:
CPU: DataLoader Load Data --> CPU: Compile Operators -- Host2Device (Ops and Data) --> Device: Forward --> NIC: Collective Communication --> Device: BP --> Device2Host CPU: Save Checkpoint
在这种异构、异步、集群的环境中,性能问题可能发生在图中的每个环节。为了定位、优化性能问题,需要进行采集、定位、优化,整体是比较复杂的过程。
按照经典的性能优化理论:如果你不能度量它,你就无法优化它。我们在对一个任务进行优化之前,首先需要采集到相关的性能数据,然后定位性能瓶颈,再进行性能优化,最后重新运行任务、对比前后的性能数据。
本文采用 PyTorch + Profiler + TensorBoard 为例,对 AI 训练任务的性能优化进行了一些实践和总结。
其中,基于 PyTorch 实现的 AI 模型训练做为被优化的任务;Profiler 做为性能数据采集的工具;TensorBoard 做为可视化性能数据、分析的工具。
1. 环境搭建
跳过安装 PyTorch 的步骤不提,需要采集性能数据的话,我们需要安装对应的工具:
通过此命令行,我们可以安装所需的 Pytorch Profiler TensorBoard Plugin
安装完成之后,可以通过命令行:
或者添加 bind_all 参数,使得可以从外部访问:
运行 TensorBoard,然后根据该程序输出的结果,在浏览器里面访问可视化的性能数据分析(端口可能不一定是 6006),支持 Chrome、Firefox 和 Edge 浏览器,不支持 Safari:
http://localhost:6006/#pytorch_profiler
如果在 VS Code 里面,可以在菜单 View -> Command Palette 输入:Launch TensorBoard,然后在 VS Code 里面直接查看性能数据。
坑 1:该插件在 Windows 下有 bug,采集到的 GPU 数据无法正确显示。该问题至少在 2022 年就被发现,不过一直没修复:
https://discuss.pytorch.org/t/pytorch-profiler-not-profiling-gpu-on-windows/146685
所以,请在 Linux 下使用此插件和试验。
2. 待优化的 AI 模型训练任务
首先创建一个常见的 CNN 模型,并实现对它进行训练的代码。
运行此代码,可以看到该训练过程正常运行:
3. 记录性能数据
修改前面的 main 函数,加入 Profiler 的部分,进行性能数据采集:
activities:需要记录哪些设备的性能活动,包括 ProfilerActivity.CPU、ProfilerActivity.CUDA 和 ProfilerActivity.XPU。
schedule:通过定义 wait、warmup、active、repeat、skip_first 这些数值,决定在哪些步骤记录性能数据。
on_trace_ready:定义在记录完成时,所需要回调的的操作。
record_shapes:是否记录算子输入形状的信息。
profile_memory:是否跟踪张量的内存分配与释放。
with_stack:是否记录算子的源代码信息(文件和行号)。
with_flops:是否估计算子的 FLOPs。
with_modules:是否记录算子的调用栈所对应的模块层次结构(包括函数名)。
通过创建 profiler,进行 start/step/stop 操作,就可以在指定的目录里面得到对应的 JSON 文件。后面可以用 TensorBoard 来打开并分析该性能数据。
坑 2:所产生的 JSON 文件,在 Windows 下用 TensorBoard 打开的话,会报错、失败:
json.decoder.JSONDecodeError: Invalid \escape
这是因为插件在 Windows 下用斜线""来分隔路径,这个符号在 JSON 解析时会失败。需要手动打开该 JSON 文件,将全部的""替换成"/"或者"\"。
Linux 下没有这个问题,也不用替换。
4. 性能优化过程 - 消除 Device2Host
我们先运行 TensorBoard 来打开前面一步采集到的性能数据,对该工具建立初步的概念:
根据工具输出的结果,通过浏览器访问:TensorBoard,可以得到这样的 Overview 结果:
<center>图 1. 未优化前的 Overview</center>
图中展示了系统的配置、GPU 的使用率、每一步的整体执行时间等宏观信息。
对于性能分析与优化,更有用的信息在如下的 Trace 页面:
<center>图 2. 未优化前的 Trace</center>
图中,横轴 X 反映了代码的执行顺序、所消耗的时间;纵轴 Y 反映了代码的调用栈。
醒醒,到了需要仔细观察、寻找问题的阶段了。
从 Trace 的视图里面,可以看到:
整个 ProfilerStep#3,大概花了 80ms 的时间;
横轴 X 上,耗费时间最多、接近一半的居然是 aten::item 这个函数
查一下 PyTorch 的文档:
torch.Tensor.item — PyTorch 2.4 documentation
可以看到:
Returns the value of this tensor as a standard Python number. This only works for tensors with one element. For other cases, see
tolist()
.
继续看 tolist 的文档:
torch.Tensor.tolist — PyTorch 2.4 documentation
Tensor.tolist() → list or number
Returns the tensor as a (nested) list. For scalars, a standard Python number is returned, just like with
item()
. Tensors are automatically moved to the CPU first if necessary.
最后一句话解释了原因:
Tensors are automatically moved to the CPU first if necessary.
item()、tolist()函数会自动把数据从 GPU/NPU 搬到 CPU 上去处理。正是因为这个 Device2Host 的操作,导致了这个接近一半的耗时。
知道问题来源之后,那就先把它注释掉,不在每次训练时获取、打印 loss 信息:
然后,再次运行、采集性能数据。可以得到新的结果:
<center>图 3. 优化 item()后的 Overview</center>
可以看到,GPU 的使用率从原来的 60.99%上升到 96.1%。简单的一行代码修改,基本就把 GPU 的计算能力压榨出来。
再看看新的 Trace 信息。
<center>图 4. 优化 item()后的 Trace</center>
可以看到,原来最碍眼的 aten::item()调用,已经消失了。而单步训练的时间,从原来的 80ms,降到现在的 57ms。效果非常明显。
5. 性能优化过程 - 优化 Host2Device
还没完。
在性能优化的过程中,我们一般都是先把第一个瓶颈的地方优化掉;然后寻找下一个瓶颈,直到满足性能要求。
随着 item()的优化结束,在新的 Trace 视图中,可以看到第一个和第二个长长的函数调用,分别是 dataloader 的__next__,和 aten::to。结合代码来看,这两个函数分别对应的是 DataLoader 加载训练数据集,然后把数据集从 CPU 侧搬到 GPU/NPU 侧,即 Host2Device 的过程。而这两个函数占用了整个步骤 80%左右的时间。
我们试着通过 num_workers、pin_memory、non_blocking 这些技巧来优化它们的性能。
先了解一下这几个参数的意义:
关于 num_workers:
torch.utils.data — PyTorch 2.4 documentation
Single- and Multi-process Data Loading
A
DataLoader
uses single-process data loading by default.Within a Python process, the Global Interpreter Lock (GIL) prevents true fully parallelizing Python code across threads. To avoid blocking computation code with data loading, PyTorch provides an easy switch to perform multi-process data loading by simply setting the argument
num_workers
to a positive integer.
num_workers 默认是 0,只使用主进程来加载数据。这种情况下,后续的操作会被加载数据的操作所阻塞。
通过将 num_workers 改为正整数,可以启动多进程来进行数据的加载、提升性能。
具体的 num_workers 数值是一个超参数,需要进行试验并选择最佳数值。
一般的说法是,num_workers = (节点上 CPU 的核数)/(节点上 GPU 的个数),可以做为参考数值。
关于 pin_memory:
torch.utils.data — PyTorch 2.4 documentation
Memory Pinning
Host to GPU copies are much faster when they originate from pinned (page-locked) memory. See Use pinned memory buffers for more details on when and how to use pinned memory generally.
For data loading, passing
pin_memory=True
to aDataLoader
will automatically put the fetched data Tensors in pinned memory, and thus enables faster data transfer to CUDA-enabled GPUs.
pin_memory 默认是 False。通过将其改为 True,可以避免内存页交换,加快从 CPU 内存搬到 GPU 内存的速度。当然也会有坏处,它会增加对系统内存的占用,否则 PyTorch 默认就可以把它设为 True 了。
当把 DataLoader 的 pin_memory 设为 True 之后,对应的 Host2Device 搬运操作:to(),一般会把 non_blocking 参数也设为 True,以支持异步的搬运。
如下修改代码中的这三个参数:
然后重新运行、采集性能数据。可以得到下面的结果。
图 5. 优化 Host2Device 后的 Overview
GPU 的使用率现在是 96.36%
图 6. 优化 Host2Device 后的 Trace
整体的单步训练耗时,也进一步从 52ms 降低到了 10ms 级别。
之前那俩显眼包:数据加载和 to 函数,从原来的 80%时间占用,变成了基本看不见。主要的时间都花在了 forward、backward 和 Optimizer.step()上面,这才是符合预期的。
注:使用了多进程、异步传输之后,这个耗时变得不精确了。如果需要准确的时间对比,需要在每轮训练结束之前强制让 cuda 进行同步。
6. 常用优化思路
以上是性能分析优化的思考过程,以及两个经典的优化点。在实际项目中,有很多可以进行优化的方法,根据优化的发力点做如下分类。
6.1 CPU 侧的优化
使用 CPU 的性能模式:现在的 CPU 一般会分为高性能模式和各种省电模式。为了达到极致的性能要求,可以在 BIOS 里面把 CPU 的模式设置为 Performance,使其固定运行在高主频。或者通过如下的脚本修改模式:
多进程加载数据:修改 DataLoader 的 num_workers 为正整数,用多个进程来加载数据集。比如使用 8 个进程:
固定内存页:修改 DataLoader 的 pin_memory 为 True,并且修改 CPU 到 GPU 的 to 函数参数 non_blocking 为 True,使得数据可以异步传输:
增大 batch_size:当发现 GPU/NPU 的显存还有比较大的空间,算力使用率也没用满的情况下,可以适当增大每次训练的 batch size:
预加载数据到内存:事先把数据集复制到 Linux 的内存中,然后 DataLoader 从内存读取数据而非从硬盘读取,从而加速数据加载的过程;而且在分布式训练中,同一节点上的多个训练进程都可以复用该内存,而不需要每个进程复制一份:
用 as_tensor()代替 tensor():代码里面有时会使用 as_tensor()、from_array()、tensor()、Tensor()这些方法来基于 numpy 数据创建张量。前两者在创建的时候,会直接复用 numpy 的内存;而后两者会进行内存的复制。最好使用 as_tensor()、from_array()减少内存复制的开销。
Host2Device 问题的信号:当在 Profiler 中发现 to, copy_, cudaStreamSynchronize 这些函数调用的时候,那么就需要去留意这个 H2D 操作是否是必不可少的。如果能去除这个操作,就尽量把它去掉。
6.2 Device 侧的优化
直接在 Device 上创建张量:在创建张量时,如果你已经确定这个张量会在 Device 上被使用,那么在创建时,直接指定 device 参数;而不是创建之后再去 to(device)。比如下列的函数,和其他包含 device 参数的函数:
留意代码中的这些函数:print(), item(), assert(), cpu(), numpy()。这些函数需要在 CPU 上执行。当这些函数处理的数据本来在 GPU/DPU 上,PyTorch 会默默的把它们搬运到 CPU,然后再执行。而这个操作会带来明显的性能问题。比如说,前面的代码里面就依然存在类似的问题。
避免在前向计算、反向传播的代码中创建对象、或者复制数据:在实现代码的时候,我们有时候会不经意的在前向计算,或者反向传播的相关代码中,创建一些对象,或者执行一些数据的复制。虽然从代码上来看,它们只出现一次,但在训练过程中,它们会被反复的执行,从而带来很严重的性能问题。所以,尽可能把这些对象、数据的的操作移到到别的地方,比如说模型的构造函数,让它们只在开始的时刻执行一次。
Device2Host 问题的信号:当在 Profiler 中发现 item, cudaMemCpyAsync 这些函数调用的时候,那么就需要去留意这个 D2H 操作是否是必不可少的。如果能去除这个操作,就尽量把它去掉。
使用 torch.compile:通过它,将模型从 Eager 模式编译成 Graph 模式,提高模型的运行效率:
除了模型之外,还可以把损失函数、激活函数都先编译,然后再去使用:
也可以把一些算子融合,然后通过编译修饰符进行加速:
注:这个功能对 GPU 有要求,比如我实验的 P100 就不支持……
使用混合精度:Automatic Mixed Precision(AMP),即自动混合精度。详细的官方介绍在这里:https://pytorch.org/tutorials/recipes/recipes/amp_recipe.html通过将计算精度从 fp32 降低到 fp16 或者 bf16,可以加速计算速度、减少内存使用;尤其在具有 TensorCore 的设备上,会有更突出的效果:
6.3 集合通信的优化
集合通信的优化,包括集合通信算法、拓扑感知、计算通信重叠/掩盖等等,这些有点复杂。暂时还没整理完毕。留着以后再单独写。
7. 性能优化总结
性能优化是很苦恼而有趣的过程,中间会有很多谜一样的问题,需要去不停的思考、假设、修改、验证。
而对于 AI 集群训练的这个场景,我觉得在优化之前,有几个问题需要很清楚的回答,才能做好性能优化的工作:
这个 workload 的原理是什么?
这个代码是在什么地方执行?
这个代码所操作的数据是在什么地方?
虽然,能回答这些问题不一定能把性能问题解决掉,但回答不出来的话,肯定是解决不掉的。
版权声明: 本文为 InfoQ 作者【王玉川】的原创文章。
原文链接:【http://xie.infoq.cn/article/fa9d750e74385df2f7197629a】。文章转载请联系作者。
评论