带宽优化新思路:RoCE 网卡聚合实现 X2 增长
本文分享自华为云社区《2个RoCE网卡Bond聚合,实现带宽X2》,作者: tsjsdbd 。
我们知道操作系统里面,可以将 2 个实际的物理网卡,合体形成一个“逻辑网卡”,从而达到如主备/提升带宽等目的。但是 RoCE 网卡,是否也跟普通网卡一样,支持 Bond 能力呢?答案是的,RoCE 也可以组 Bond,只是比普通网卡多了一些约束。
今天我们就来实际操作一下这个过程,并了解其中需要注意的地方。也欢迎一起交流学习。
一、RoCE 网卡链路聚合(LAG)
根据找到的资料:https://mellanox.my.site.com/mellanoxcommunity/s/article/How-to-Configure-RoCE-over-LAG-ConnectX-4-ConnectX-5-ConnectX-6 里面说的,RoCE 网卡的 Bond,只支持 3 种模式:
模式 1(主备)
模式 2(负载均衡)
模式 4(链路聚合)
相比普通网卡总共 0-6 共七种模式而言,算是打了大折。好在我们想要的“提升带宽”的模式还是有的。
二、服务器执行双网卡聚合(Bond)操作
不同的操作系统,执行 Bond 的命令不一样。这里我实际操作的是 Ubuntu22.04,使用自带的 netplan 工具,执行 bond 过程如下:
修改:
执行:
后,就可以看到一个叫“bond0”的网卡了。
这里,咱们配置的 bond 里面有 2 个重要的参数:
(1)选择 bond 模式 4,即 802.3ad(链路聚合)
(2)transmit-hash-policy,负载均衡策略,有以下 3 种值:
这里由于 RDMA 点对点通信的时候,IP+MAC 地址都不会变。所以咱选 layer3+4,毕竟发送报文的时候,源端口还是随机的。
附 CentOS 的操作供参考:
新建 bond 口
添加子网卡
激活子网卡
修改了 bond 卡的配置
修改 2 子网卡配置
激活 bond 卡
三、服务器为新网卡开启 PFC 流控
执行如下命令,首先设置 MTU:
然后开启队列 4 的 pfc 流控策略:
其中,前 2 条命令需要分别为 bond 下的各个子网卡开启 pfc。
然后,mlx5_bond_0 可以通过 ibdev2netdev 命令查询得到。
最后一条 echo 128 命令,是指强制网卡发送的报文的 Traffic Class 为 128,即匹配网卡发送队列 4。不设置的话也行,可以通过 NCCL_IB_TC=128 达成相同的目的。详细可以参考《为什么华为云上 AI 训练必须设置 NCCL_IB_TC=128》一文。
四、交换机执行双网口聚合(LACP)
不同的交换机开启 LACP 模式的命令不一样,这里型号是 CE9860。执行如下:
开启 eth-trunk 口。
然后切换到对应的网口,使其加入到这个 trunk 口。
命令操作基本这个思路,另外,LACP 的 LB 策略,是通过修改 load-balance profile default 配置完成的:
默认值是 1。
五、交换机为对应端口开启 PFC 流控
交换机上执行:
上面的命令,其实除了开启 pfc 之外,还设置了网口对应的 buffer 大小。具体参数值大小自己看着办。
六、RDMA 流量带宽测试
这个就是咱们平时经常用的带宽测试命令了:
首先服务器端,启动 Server,
ib_write_bw -s 8388608 -F --run_infinitely -x 3 -q 8 --report_gbits
然后 Client 开始给服务端打流:
ib_write_bw -s 8388608 -F --run_infinitely -x 3 10.10.2.20 -q 8 --report_gbits
其中 -x 参数设置为 3,是表示使用 RoCE V2 协议。
参数 --run_infinitely 可以让测试一直进行而不停止。
-q 表示使用多个 QPS(Queue-Pairs)流。对应 NCCL_IB_QPS_PER_CONNECTION,可以尝试设大一点试试效果。
示意的一个结果如下:
七、服务器端统计信息
查询队列 4 的报文数量:
watch -n 2 “ethtool -S ens3f0np0 | grep prio4”
这个报文数不会减少,清零不方便,好像重启服务器数量也不会清 0。
只找到了通过卸载 IB 模块来达到清空统计数的目的(假如需要的话):
查询网卡温度:
mget_temp -d mlx5_bond_0
可以看到温度,一般都是 62/63 度左右。
八、小结
本文只是操作记录,用于互相交流,不一定是最佳实践,自己有选择的看。
这么写的:
版权声明: 本文为 InfoQ 作者【华为云开发者联盟】的原创文章。
原文链接:【http://xie.infoq.cn/article/1c548b80bc05a4895cceb9c21】。文章转载请联系作者。
评论