以 Go 语言为例解释什么是伪共享以及如何解决
本文翻译自:What’s false sharing and how to solve it (using Golang as example)
译文
在解释 伪共享(false sharing)之前,有必要简要介绍一下 CPU 架构中缓存是如何工作的。
CPU 缓存中的最小单位是缓存行(cache line)(如今,CPU 中常见的缓存行大小为 64 字节)。因此,当 CPU 从内存读取一个变量时,它会同时读取该变量附近的所有变量。图 1 是一个简单的例子:
当 core1
从内存读取变量 a
时,它会同时将变量 b
读入缓存。(顺便说一句,我认为 CPU 从内存批量读取变量的主要原因是基于空间局部性理论:当 CPU 访问一个变量时,它可能很快就会读取旁边的变量。)
这种缓存架构存在一个问题:如果一个变量像图 2 那样存在于不同 CPU 核心的两个缓存行中:
当 core1
更新变量 a
时:
即使变量 b
没有被修改,它也会导致 core2
的缓存失效,因此 core2
将重新加载缓存行中的所有变量,如图 4 所示:
这就是所谓的伪共享:一个核心更新一个变量会迫使其他核心也更新缓存。我们都知道,CPU 从缓存读取变量比从内存读取要快得多。因此,当这个变量总是存在于多核中时,这将显著影响性能。
解决这个问题的常见方法是缓存填充(cache padding):在变量之间填充一些无意义的变量。这将迫使一个变量单独占用一个核心的缓存行,所以当其他核心更新缓存变量时,不会使该核心从内存中重新加载变量。
让我们使用下面的 Go 代码片段简要介绍这个伪共享的概念。
这里是一个包含 3 个 uint64
的 Go 结构体,
还有另一个我在变量之间添加了 [8]uint64
以进行填充的结构体:
然后我编写了一个简单的代码来运行基准测试:
在 2014 年的 MBA 上运行的基准测试如下:
基准测试的结果显示,性能从 0.07 ns/op
提高到了 0.02 ns/op
,这是一个很大的改进。
你也可以在其他语言(如 Java)中测试这一点,我相信你会得到相同的结果。
在你将其应用到生产环境之前,你应该了解两个关键点:
确保了解你系统中 CPU 的缓存行大小:这与你使用的缓存填充大小有关。
填充更多变量意味着你将消耗更多的内存资源。运行基准测试并确保你的投入是值得的。
我所有的示例代码都在 GitHub 上。
P.S.
之所以选择翻译此文,是因为我正在写关于 Go 结构体内存对齐的文章,需要介绍「伪共享」这个概念,受限于篇幅所限,就决定针对伪共享这个概念单独写一篇文章。我在查阅资料过程中发现此文讲解浅显易懂,于是想着把此文翻译下共读者查阅。
不过虽然这篇文章思路清晰易懂,但作者提供的基准测试代码并不够严谨,我在 2022 款 M2 芯片的 MBA 上测试得到如下结果:
跟作者的结果完全相反,哈哈😄。
我们可以写一个简单的基准测试来验证使用 cache padding
来解决 false sharing
的效果:
在 without_padding
场景中,由于 nums
数组的元素可能共享相同的缓存行,多个 goroutine
同时修改相邻元素时会导致缓存行失效,从而降低性能。
而在 with_padding
场景中,通过在高频访问的变量之间加入缓存填充 _ [8]uint64
,使得每个元素都占据独立的缓存行,减少了这种缓存行的失效情况,预期能观察到性能的提升。
执行基准测试代码,输出如下:
基准测试的结果显示,性能从 22.09 ns/op
提高到了 1.075 ns/op
。
这段代码由原文评论区提供,你可以自行尝试验证。
延伸阅读
原文地址: https://medium.com/@genchilu/whats-false-sharing-and-how-to-solve-it-using-golang-as-example-ef978a305e10
联系我
微信:jianghushinian
博客:https://jianghushinian.cn
版权声明: 本文为 InfoQ 作者【江湖十年】的原创文章。
原文链接:【http://xie.infoq.cn/article/3c3d53d92937e9696a38d7c46】。文章转载请联系作者。
评论