写点什么

一块 RTX 3090 加速训练 YOLOv5s,时间减少 11 个小时,速度提升 20%

作者:OneFlow
  • 2022-12-09
    重庆
  • 本文字数:5404 字

    阅读完需:约 18 分钟

一块RTX 3090加速训练YOLOv5s,时间减少11个小时,速度提升20%

作者|BBuf


很高兴为大家带来 One-YOLOv5 的最新进展,在《一个更快的YOLOv5问世,附送全面中文解析教程》发布后收到了很多算法工程师朋友的关注,十分感谢。


不过,可能你也在思考一个问题:虽然 OneFlow 的兼容性做得很好,可以很方便地移植 YOLOv5 并使用 OneFlow 后端来进行训练,但为什么要用 OneFlow?能缩短模型开发周期吗?解决了任何痛点吗?本篇文章将尝试回答这几个问题。


我曾经也是一名算法工程师,开发机器也只有两张 RTX 3090 消费级显卡而已,但实际上大多数由我上线的检测产品也就是靠这 1 张或者 2 张 RTX 3090 完成的。


由于成本问题,很多中小公司没有组一个 A100 集群或者直接上数十张卡来训练检测模型的实力,所以这个时候在单卡或者 2 卡上将目标检测模型做快显得尤为重要。模型训练速度提升之后可以降本增效,提高模型生产率。


所以,近期我和实习生小伙伴一起凭借对 YOLOv5 的性能分析以及几个简单的优化,将单 RTX 3090 FP32 YOLOv5s 的训练速度提升了近 20%。对于需要迭代 300 个 Epoch 的 COCO 数据集来说,One-YOLOv5 相比 Ultralytics/YOLOv5 缩短了 11.35 个小时的训练时间。


本文将分享我们的所有优化技术,如果你是一名 PyTorch 和 OneFlow 的使用者,尤其日常和检测模型打交道但资源相对受限,那么本文的优化方法将对你有所帮助。


One-YOLOv5 链接:

https://github.com/Oneflow-Inc/one-yolov5


欢迎你给我们在 GitHub 上点个 Star,我们会用更多高质量技术分享来回馈社区。对 One-YOLOv5 感兴趣的小伙伴可以添加 bbuf23333 进入 One-YOLOv5 微信交流群,或者直接扫二维码:



1、结果展示


我们展示一下分别使用 One-YOLOv5 以及 Ultralytics/YOLOv5 在 RTX 3090 单卡上使用 YOLOv5s FP32 模型训练 COCO 数据集的一个 Epoch 所需的耗时:



可以看到,在单卡模式下,经过优化后的 One-YOLOv5 相比 Ultralytics/YOLOv5 的训练速度提升了 20%左右。


然后我们再展示一下 2 卡 DDP 模式 YOLOv5s FP32 模型训练 COCO 数据集一个 Epoch 所需的耗时:



在 DDP 模式下,One-YOLOv5 的性能依然领先,但还需要进一步,猜测可能是通信部分的开销比较大,后续我们会再研究一下。


2、优化手段


我们深度分析了 PyTorch 的 YOLOv5 的执行序列,发现当前 YOLOv5 主要存在 3 个优化点。


第一,对于 Upsample 算子的改进,由于 YOLOv5 使用上采样是规整的最近邻 2 倍插值,所以我们可以实现一个特殊 Kernel 降低计算量并提升带宽。


第二,在 YOLOv5 中存在一个滑动更新模型参数的操作,这个操作启动了很多碎的 CUDA Kernel,而每个 CUDA Kernel 的执行时间都非常短,所以启动开销不能忽略。我们使用水平并行 CUDA Kernel 的方式(MultiTensor)对其完成了优化,基于这个优化,One-YOLOv5 获得了 9%的加速。


第三,通过对 YOLOv5nsys 执行序列的观察发现,在 ComputeLoss 部分出现的 bbox_iou 是整个 Loss 计算部分的比较大的瓶颈,我们在 bbox_iou 函数部分完成了多个垂直的 KernelFuse,使得它的开销从最初的 3.xms 降低到了几百个 us。接下来将分别详细阐述这三种优化。


2.1 对 UpsampleNearest2D 的特化改进


这里直接展示我们对 UpsampleNearest2D 进行调优的技术总结,大家可以结合下面的 PR 链接来对应下面的知识点进行总结。我们在 A100 40G 上测试了 UpsampleNearest2D 算子的性能表现,这块卡的峰值带宽在 1555Gb/s , 我们使用的 CUDA 版本为 11.8。


进行 Profile 的程序如下:


import oneflow as flow
x = flow.randn(16, 32, 80, 80, device="cuda", dtype=flow.float32).requires_grad_()
m = flow.nn.Upsample(scale_factor=2.0, mode="nearest")
y = m(x)print(y.device)y.sum().backward()
复制代码


https://github.com/Oneflow-Inc/oneflow/pull/9415 & https://github.com/Oneflow-Inc/oneflow/pull/9424 这两个 PR 分别针对 UpsampleNearest2D 这个算子(这个算子是 YOLO 系列算法大量使用的)的前后向进行了调优,下面展示了在 A100 上调优前后的带宽占用和计算时间比较:



上述结果使用 /usr/local/cuda/bin/ncu -o torch_upsample /home/python3 debug.py 得到 profile 文件后使用 Nsight Compute 打开记录。


  • 基于上述对 UpsampleNearest2D 的优化,OneFlow 在 FP32 和 FP16 情况下的性能和带宽都大幅超越之前未经优化的版本,并且相比于 PyTorch 也有较大幅度的领先。本次优化涉及到的知识点总结如下(by OneFlow 柳俊丞):


  • 为常见的情况写特例,比如这里就是为采样倍数为 2 的 Nearest 插值写特例,避免使用 NdIndexHelper 带来的额外计算开销,不用追求再一个 kernel 实现中同时拥有通用型和高效性;


  • 整数除法开销大(但是编译器有的时候会优化掉一些除法),nchw 中的 nc 不需要分开,合并在一起计算减少计算量;


  • int64_t 除法的开销更大,用 int32 满足大部分需求,其实这里还有一个快速整数除法的问题;


  • 反向 Kernel 计算过程中循环 dx 相比循环 dy ,实际上将坐标换算的开销减少到原来的 1/4;


  • CUDA GMEM 的开销的也比较大,虽然编译器有可能做优化,但是显式的使用局部变量更好;


  • 一次 Memset 的开销也很大,和写一次一样,所以反向 Kernel 中对 dx 使用 Memset 清零的时机需要注意;


  • atomicAdd 开销很大,即使抛开为了实现原子性可能需要的锁总线等,atomicAdd 需要把原来的值先读出来,再写回去;另外,half 的 atomicAdd 巨慢无比,慢到如果一个算法需要用到 atomicAdd,那么相比于用 half ,转成 float ,再 atomicAdd,再转回去还要慢很多;


  • 向量化访存。


对这个 Kernel 进行特化是优化的第一步,基于这个优化可以给 YOLOv5 的单卡 PipLine 带来 1%的提升。


2.2 对 bbox_iou 函数进行优化 (垂直 Fuse 优化)


通过对 nsys 的分析,我们发现无论是 One-YOLOv5 还是 Ultralytics/YOLOv5,在计算 Loss 的阶段都有一个耗时比较严重的 bbox_iou 函数,这里贴一下 bbox_iou 部分的代码:


def bbox_iou(box1, box2, xywh=True, GIoU=False, DIoU=False, CIoU=False, eps=1e-7):    # Returns Intersection over Union (IoU) of box1(1,4) to box2(n,4)
# Get the coordinates of bounding boxes if xywh: # transform from xywh to xyxy (x1, y1, w1, h1), (x2, y2, w2, h2) = box1.chunk(4, -1), box2.chunk(4, -1) w1_, h1_, w2_, h2_ = w1 / 2, h1 / 2, w2 / 2, h2 / 2 b1_x1, b1_x2, b1_y1, b1_y2 = x1 - w1_, x1 + w1_, y1 - h1_, y1 + h1_ b2_x1, b2_x2, b2_y1, b2_y2 = x2 - w2_, x2 + w2_, y2 - h2_, y2 + h2_ else: # x1, y1, x2, y2 = box1 b1_x1, b1_y1, b1_x2, b1_y2 = box1.chunk(4, -1) b2_x1, b2_y1, b2_x2, b2_y2 = box2.chunk(4, -1) w1, h1 = b1_x2 - b1_x1, (b1_y2 - b1_y1).clamp(eps) w2, h2 = b2_x2 - b2_x1, (b2_y2 - b2_y1).clamp(eps)
# Intersection area inter = (b1_x2.minimum(b2_x2) - b1_x1.maximum(b2_x1)).clamp(0) * \ (b1_y2.minimum(b2_y2) - b1_y1.maximum(b2_y1)).clamp(0)
# Union Area union = w1 * h1 + w2 * h2 - inter + eps
# IoU iou = inter / union if CIoU or DIoU or GIoU: cw = b1_x2.maximum(b2_x2) - b1_x1.minimum(b2_x1) # convex (smallest enclosing box) width ch = b1_y2.maximum(b2_y2) - b1_y1.minimum(b2_y1) # convex height if CIoU or DIoU: # Distance or Complete IoU https://arxiv.org/abs/1911.08287v1 c2 = cw ** 2 + ch ** 2 + eps # convex diagonal squared rho2 = ((b2_x1 + b2_x2 - b1_x1 - b1_x2) ** 2 + (b2_y1 + b2_y2 - b1_y1 - b1_y2) ** 2) / 4 # center dist ** 2 if CIoU: # https://github.com/Zzh-tju/DIoU-SSD-pytorch/blob/master/utils/box/box_utils.py#L47 v = (4 / math.pi ** 2) * (torch.atan(w2 / h2) - torch.atan(w1 / h1)).pow(2) with torch.no_grad(): alpha = v / (v - iou + (1 + eps)) return iou - (rho2 / c2 + v * alpha) # CIoU return iou - rho2 / c2 # DIoU c_area = cw * ch + eps # convex area return iou - (c_area - union) / c_area # GIoU https://arxiv.org/pdf/1902.09630.pdf return iou # IoU
复制代码


以 One-YOLOv5 的原始执行序列图为例,我们发现 bbox_iou 函数这部分每一次运行都需要花 2.6ms 左右,并且可以看到这里有大量的小 Kernel 被调度,虽然每个小 Kernel 计算很快,但访问 GlobalMemory 以及多次 KernelLaunch 的开销也比较大,所以我们做了几个 fuse 来降低 Kernel Launch 的开销以及减少访问 Global Memrory 来提升带宽。



经过我们的 Kernel Fuse 之后的耗时只需要 600+us。



具体来说我们这里做了如下的几个 fuse:

  • fused_get_boundding_boxes_coord:https://github.com/Oneflow-


  • Inc/oneflow/pull/9433fused_get_intersection_area: https://github.com/Oneflow-


  • Inc/oneflow/pull/9485fused_get_iou: https://github.com/Oneflow-


  • Inc/oneflow/pull/9475fused_get_convex_diagonal_squared: https://github.com/Oneflow-


  • Inc/oneflow/pull/9481fused_get_center_dist: https://github.com/Oneflow-


  • Inc/oneflow/pull/9446fused_get_ciou_diagonal_angle: https://github.com/Oneflow-


  • Inc/oneflow/pull/9465fused_get_ciou_result: https://github.com/Oneflow-Inc/oneflow/pull/9462


然后我们在 One-YOLOv5 的 train.py 中扩展了一个 --bbox_iou_optim 选项,只要训练的时候带上这个选项就会自动调用上面的 fuse kernel 来对 bbox_iou 函数进行优化了,具体请看:https://github.com/Oneflow-Inc/one-yolov5/blob/main/utils/metrics.py#L224-L284 。对 bbox_iou 这个函数的一系列垂直 Fuse 优化使得 YOLOv5 整体的训练速度提升了 8%左右,是一个十分有效的优化。


2.3 对模型滑动平均更新进行优化(水平 Fuse 优化)


在 YOLOv5 中会使用 EMA(指数移动平均)对模型的参数做平均, 一种给予近期数据更高权重的平均方法, 以求提高测试指标并增加模型鲁棒。这里的核心操作如下代码所示:


def update(self, model):        # Update EMA parameters        self.updates += 1        d = self.decay(self.updates)
msd = de_parallel(model).state_dict() # model state_dict for k, v in self.ema.state_dict().items(): if v.dtype.is_floating_point: # true for FP16 and FP32 v *= d v += (1 - d) * msd[k].detach() # assert v.dtype == msd[k].dtype == flow.float32, f'{k}: EMA {v.dtype} and model {msd[k].dtype} must be FP32'
复制代码


以下是未优化前的这个函数的时序图:



这部分的 CUDAKernel 的执行速度大概为 7.4ms,而经过我们水平 Fuse 优化(即 MultiTensor),这部分的耗时情况降低了 127us。



并且水平方向的 Kernel Fuse 也同样降低了 Kernel Launch 的开销,使得前后 2 个 Iter 的间隙也进一步缩短了。最终这个优化为 YOLOv5 的整体训练速度提升了 10%左右。本优化实现的 pr 如下:https://github.com/Oneflow-Inc/oneflow/pull/9498


此外,对于 Optimizer 部分同样可以水平并行,所以我们在 One-YOLOv5 里设置了一个multi_tensor_optimizer标志,打开这个标志就可以让 optimizer 以及 EMA 的 update 以水平并行的方式运行。


关于 MultiTensor 这个知识可以看 zzk 的这篇文章:https://zhuanlan.zhihu.com/p/566595789。zzk 在 OneFlow 中也实现了一套 MultiTensor 方案,上面的 PR 9498 也是基于这套 MultiTensor 方案实现的。介于篇幅原因我们就不展开 MultiTensor 的代码实现了,感兴趣朋友的可以留言后续单独讲解。


3、使用方法


上面已经提到所有的优化都集中于 bbox_iou_optimmulti_tensor_optimizer 这两个扩展的 Flag,只要我们训练的时候打开这两个 Flag 就可以享受到上述优化了。其他的运行命令和 One-YOLOv5 没有变化,以 One-YOLOv5 在 RTX 3090 上训练 YOLOv5 为例,命令为:


python train.py --batch 16 --cfg models/yolov5s.yaml --weights '' --data coco.yaml --img 640 --device 0 --epoch 1 --bbox_iou_optim --multi_tensor_optimizer
复制代码


4、总结


目前,YOLOv5s 网络当以 BatchSize=16 的配置在 GeForce RTX 3090 上(这里指定 BatchSize 为 16 时)训练 COCO 数据集时,OneFlow 相比 PyTorch 可以节省 11.35 个小时。希望这篇文章提到的优化技巧可以对更多的从事目标检测的工程师带来启发。


欢迎 Star One-YOLOv5 项目:

https://github.com/Oneflow-Inc/one-yolov5


One-YOLOv5 的优化工作实际上不仅包含性能,我们目前也付出了很多心血在文档和源码解读上,后续会继续放出《YOLOv5全面解析教程》的其他文章,并将尽快发布新版本。


5、致谢


感谢同事柳俊丞在这次调优中提供的 idea 和技术支持,感谢胡伽魁同学实现的一些 fuse kernel,感谢郑泽康和宋易承的 MultiTensorUpdate 实现,感谢冯文的精度验证工作以及文档支持,以及小糖对 One-YOLOv5 的推广,以及帮助本项目发展的工程师如赵露阳、梁德澎等等。本项目未来会继续发力做出更多的成果。


其他人都在看


欢迎 Star、试用 OneFlow 最新版本:https://github.com/Oneflow-Inc/oneflow/

用户头像

OneFlow

关注

不至于成为世界上最快的深度学习框架。 2022-03-23 加入

★ OneFlow深度学习框架:github.com/Oneflow-Inc/oneflow ★ OF云平台:oneflow.cloud

评论

发布
暂无评论
一块RTX 3090加速训练YOLOv5s,时间减少11个小时,速度提升20%_人工智能_OneFlow_InfoQ写作社区