写点什么

【ASPLOS 2023】图神经网络统一图算子抽象 uGrapher,大幅提高计算性能

  • 2023-03-27
    浙江
  • 本文字数:3186 字

    阅读完需:约 10 分钟

【ASPLOS 2023】图神经网络统一图算子抽象uGrapher,大幅提高计算性能

作者:周杨杰、沈雯婷

开篇

近日,阿里云机器学习 PAI 平台关于图神经网络统一高性能 IR 的论文《uGrapher》被系统领域顶会 ASPLOS 2023 接收。


为了解决当前图神经网络中框架中不同的图算子在不同图数据上静态 kernel 的性能问题,uGrapher 通过将所有图算子抽象为统一的中间表达形式,解耦图算子的计算和调度,并定义了在 GPU 上优化图算子的设计空间,以针动态变化的图算子和图数据自适应的生成并行执行策略,为图神经网络中的图算子提供高性能的计算支持。对比 DGL [1], PyG[2], GNNAdvisor[3],uGrapher 平均可以取得 3.5 倍的性能提升。

背景

近年来,图神经网络(Graph Neural Networks, GNNs)因其在非欧几里德空间中对图结构进行学习和推断的强大能力而受到学术界和产业界的广泛关注****。GNNs 将基于 DNN 的特征变换和基于图的操作结合起来,沿着图结构传播和聚合信息。现有的 GNN 框架如 DGL 和 PyTorch-Geometric(PyG)扩展了 DNN 框架(如 TensorFlow 和 PyTorch),并引入了“消息”这一概念,它是与每个边相关联的特征向量的中间值。对于图的任何操作,可以根据数据的属性和数据移动的方向分为三个阶段,即消息创建、消息聚合和特征更新,公式化如下图:



其中,是顶点索引,之间的边索引;是顶点的特征向量,是边上的消息。


uGrapher 将需要遍历输入图结构的操作符定义为图算子。图算子包括“消息创建”、“消息聚合”和“融合聚合”三类。其中,“融合聚合”是指当“消息创建”是一个简单的复制操作时,它可以与“消息聚合”融合在一起,以避免冗余访问,DGL 和 PyG 采用了这种融合优化。


以 GAT 模型为例,它包含几个具有不同计算模式的图操作符。第一个“消息创建”操作非常轻量级,它将每个边的源顶点和目标顶点的特征相加作为消息以计算注意力权重;第二个“融合聚合”操作首先从源顶点复制特征,然后逐边乘注意力权重,最后将变换后的边上的消息聚合为顶点的新特征。第二个操作比第一个操作更加计算密集。


由于图结构引起的不规则内存行为,再加上这些图算子中复杂的算术计算,图神经网络中图算子的高性能计算成为重要挑战。


现有的图神经网络框架依靠手写静态 kernel 来实现图算子的计算。然而,随着图神经网络算法演进,图算子的可变性和复杂性不断增加,其计算也变得更加复杂;同时,不同分布的图数据作为输入也给图神经网络的计算带来了特有的复杂性,这导致静态算子难以维持较好的性能。因此,本文探索了如何在变化的图数据和图模型上进行图算子的计算优化。

挑战

(1)图神经网络引入了图算子的复杂性和图数据的变化性两大特征,导致了图算子计算优化上的难题。


下表根据输入和输出数据类型将 DGL 支持的 160 个图操作符进行了分类。即使具有相同的输入或者输出数据类型,图算子也可以执行不同的计算模式。图算子的复杂性导致很难找到静态的方式为所有图算子的计算操作提供高性能支持。



真实世界中的图数据集有很大的差异。图的规模,即顶点和边的数量,图的平衡程度,即邻接矩阵行的非零值的标准差,以及特征和类大小,这些属性在不同的图之间有显著的差异。而这些差异影响了图算子的内存使用和计算复杂性。


(2)由于缺乏系统优化方法,现有 GNN 框架使用的底层 CUDA kernel 存在低效和缺乏灵活性的问题。


DGL 在支持上文中的消息传递编程接口时调用静态 CUDA kernel,这些静态 kernel 不能适应变化的计算场景。比如,在执行不平衡图时,GPU 的低占用率导致了硬件资源的浪费。当执行小图时,GPU 性能通常受到并行性的限制,而执行大图时,由于低局部性,访问带宽成为瓶颈。同时,这些指标在不同图算子之间也会有所差异。


破局

uGrapher 使用嵌套循环作为图算子的调度表达,并允许用户定制输入张量和不同阶段的函数操作来表示不同的图算子运算。


下图为面向图神经网络中的图算子统一的抽象细节。



edge_op 实现了边上的访存和计算的函数表示,而 gather_op 实现了边到顶点的合并函数表示。另外还有三个输入张量,可以为源顶点嵌入张量(Src_V),目的地顶点嵌入张量(Dst_V),边嵌入张量(Edge),以及 NULL 的任意一种。 张量的数据类型还确定了循环计算中不同的寻址模式(第 10 至 12 行)。


下面的公式正式定义了 uGrapher 的统一抽象,其中, 是 edge_op 函数, 是 gather_op 函数。该抽象捕捉了图算子的完整语义,包括其计算和内存移动模式。



根据图算子统一的抽象,uGrapher 构建了算子优化的设计空间,以实现高性能的图算子执行。


uGrapher 使用局部性、并行性和工作效率来描述 GPU 上图算子性能的指标。对嵌套循环应用 tiling 或者 blocking 技术可以提高图算子的局部性;通过启动更多的线程、warp 或线程块可以提高图算子的并行性;工作效率用额外开销的倒数表示,同一运算符的不同执行策略可能会引入额外的计算,例如地址计算等,共享顶点的边并行计算可能需要原子指令。


现有图处理系统中有两种经典并行化策略:线程-顶点和线程-边并行。前者降低了并行性,但提高了输出数据的重用性和局部性。后者降低了工作效率,因为可能需要原子更新操作。


由于 GNN 中的顶点/边特征是向量,GNN 增加了特征维度的并行化策略,为 warp-顶点和 warp-边,相对线程-顶点/边策略,可以启动更多的 warp,从而增加并行性。然而,由于每个 warp 的缓存容量减少,这个策略也会损害局部性。


因此,没有一种单一的策略可以同时提高这三个指标,uGrapher 通过上述统一的 IR 表达,设计了统一的高性能计算接口,来探索优化空间,进行性能的权衡。整体架构如下图所示。



uGrapher 提供的图算子统一高性能计算接口设计如下图所示。



uGrapher 接口包含三个参数:graph_tensor,表示图数据;op_info,用于传递 edge_op、gather_op 和输入张量的计算信息;parallel_info,用于指定并行化策略。


uGrapher 的接口设计将算子计算、图数据和并行化策略分离,使得用户可以通过手动,或者针对不同的算子和图结构提出自己的启发式算法来选择执行策略。同时,当用户未指定任何并行化策略时,uGrapher 会利用 LightGBM[4]训练决策模型,选择并行化空间中的最优策略来自动调整到最佳并行化策略,以在不同的 GPU 架构和图数据集上为所有图神经网络中的图算子提供专门和最优的计算调度。uGrapher 实现了每种并行化策略的 CUDA 内核模板,并为每种图算子保留设备函数接口,并实现了端到端的代码生成,包含了算子合并和设备函数生成,以支持灵活和高效的算在实现。更多的细节请阅读我们 ASPLOS 2023 的论文。


目前,阿里云正在将 uGrapher 的关键设计集成进 PAI 自研的大规模图神经网络框架 GraphLearn 中,从而为工业级别的图神经网络应用带来性能加速。


第五板块:


  • 论文标题:


uGrapher: High-Performance Graph Operator Computation via Unified Abstraction for Graph Neural Networks


  • 论文作者:


周杨杰,冷静文,宋曜旭,卢淑文,王勉, 李超,过敏意, 沈雯婷,李永,林伟等


  • 论文 pdf 链接:


https://dl.acm.org/doi/10.1145/3575693.3575723


  • 参考文献:


[1] M. Wang, D. Zheng, Z. Ye, Q. Gan, M. Li, X. Song, J. Zhou, C. Ma, L. Yu, Y. Gai et al., “Deep graph library: A graph-centric, highly-performant package for graph neural networks,” arXiv preprint arXiv:1909.01315, 2019.


[2] M. Fey and J. E. Lenssen, “Fast graph representation learning with pytorch geometric,” arXiv preprint arXiv:1903.02428, 2019.


[3] Y. Wang, B. Feng, G. Li, S. Li, L. Deng, Y. Xie, and Y. Ding, “GNNAdvisor: An adaptive and efficient runtime system for GNN acceleration on GPUs,” in 15th USENIX Symposium on Operating Systems Design and Implementation (OSDI 21), 2021, pp. 515–531.


[4] Guolin Ke, Qi Meng, Thomas Finley, Taifeng Wang, Wei Chen, Weidong Ma, Qiwei Ye, and Tie-Yan Liu. 2017. Lightgbm: A highly efficient gradient boosting decision tree. Advances in neural information processing systems 30 (2017).

发布于: 刚刚阅读数: 3
用户头像

还未添加个人签名 2020-10-15 加入

分享阿里云计算平台的大数据和AI方向的技术创新和趋势、实战案例、经验总结。

评论

发布
暂无评论
【ASPLOS 2023】图神经网络统一图算子抽象uGrapher,大幅提高计算性能_人工智能_阿里云大数据AI技术_InfoQ写作社区