面试不踩坑!Volatile 的内存屏障源码级详解
请看下面的代码并尝试猜测输出:
可能一看下面的代码你可能会放弃继续看了,但如果你想要彻底弄明白 volatile,你需要耐心,下面的代码很简单!
在下面的代码中,我们定义了 4 个字段 x,y,a 和 b,它们被初始化为 0
然后,我们创建 2 个分别调用 Test1 和 Test2 的任务,并等待两个任务完成。
完成两个任务后,我们检查 a 和 b 是否仍为 0,
如果是,则打印它们的值。
最后,我们将所有内容重置为 0,然后一次又一次地运行相同的循环。
如果您运行上述代码(最好在 Release 模式下运行),则会看到输出为 0、0 的许多输出,如下图。
我们先根据代码自我分析一下
在 Test1 中,我们将 x 设置为 1,将 a 设置为 y,而 Test2 将 y 设置为 1,将 b 设置为 x
因此这 4 条语句会在 2 个线程中竞争
罗列下可能会发生的几种情况:
1. Test1 先于 Test2 执行:
在这种情况下,我们假设 Test1 在 Test2 之前完成,那么最终值将是
2. Test2 执行完成后执行 Test1:
在这种情况下,那么最终值将是
2. Test1 执行期间执行 Test2:
在这种情况下,那么最终值将是
3. Test2 执行期间执行 Test1
在这种情况下,那么最终值将是
4. Test1 交织 Test2
在这种情况下,那么最终值将是
5.Test2 交织 Test1
在这种情况下,那么最终值将是
我认为上面已经罗列的
已经涵盖了所有可能的情况,
但是无论发生哪种竞争情况,
看起来一旦两个任务都完成,
就不可能使 a 和 b 都同时为零,
但是奇迹般地,居然一直在打印 0,0 (请看上面的动图,如果你怀疑的话代码 copy 执行试试)
真相永远只有一个
先揭晓答案:cpu 的 乱序执行 。
让我们看一下 Test1 和 Test2 的 IL 中间代码。
我在相关部分中添加了注释。
请注意,我在注释中使用“上载”和“下载”一词,而不是传统的读/写术语。
为了从变量中读取值并将其分配到另一个存储位置,
我们必须将其读取到 CPU 寄存器(如上面的 edx),
然后才能将其分配给目标变量。
由于 CPU 操作非常快,因此与在 CPU 中执行的操作相比,对内存的读取或写入真的很慢。
所以我使用“上传”和“下载”,相对于 CPU 的高速缓存而言【读取和写入内存的行为】
就像我们向远程 Web 服务上载或从中下载一样慢。
以下是各项指标(2020 年数据)(ns 为纳秒)
L1 cache reference: 1 ns
L2 cache reference: 4 ns
Branch mispredict: 3 ns
Mutex lock/unlock: 17 ns
Main memory reference: 100 ns
Compress 1K bytes with Zippy: 2000 ns
Send 2K bytes over commodity network: 44 ns
Read 1 MB sequentially from memory: 3000 ns
Round trip within same datacenter: 500,000 ns
Disk seek: 2,000,000 ns
Read 1 MB sequentially from disk: 825,000 ns
Read 1 MB sequentially from SSD: 49000 ns
由此可见 访问主内存比访问 CPU 缓存中的内容慢 100 倍
如果让你开发一个应用程序,实现上载或者下载功能。
您将如何设计此?肯定想要开多线程,并行化执行以节省时间!
这正是 CPU 的功能。CPU 被我们设计得很聪明,
在实际运行中可以确定某些“上载”和“下载”操作(指令)不会互相影响,
并且 CPU 为了节省时间,对它们(指令)进行了(优化)并行处理,
也叫【cpu 乱序执行】(out-of-order)
上面我说道:在实际运行中可以确定某些“上载”和“下载”操作(指令)不会互相影响,
这里有一个前提条件哈:该假设仅基于基于线程的依赖性检查进行(per-thread basis dependency checks)。
虽然在单个线程是可以被确定为指令独立性,但 CPU 无法考虑多个线程的情况,所以提供了【volatile 关键字】
我们回到上面的示例,尽管我们已将字段标记为 volatile,但感觉上没有起作用。为什么?
一般说到 volatile 我都一般都会举下面的例子(内存可见性)
如果您使用 release 模式运行上述代码,它也会无限死循环。
这次 CPU 没有罪,但罪魁祸首是 JIT 优化。
你如果把:
改成
就不会死循环了。
让我们来看一下[没有加 volatile]和[加了 volatile]这 2 种情况的 IL 代码:
没有加 volatile
加了 volatile
留意我打了注释的那行。上面的这些 IL 代码行 实际上是代码进行检查的地方:
当不使用 volatile 时,JIT 将完成的值缓存到寄存器(edx),然后仅使用 edx 寄存器的值来判断(while (!c.completed))。
但是,当我们使用 volatile 时,将强制 JIT 不进行缓存,
而是每次我们需要读取它直接访问内存的值 (cmp byte ptr [rdx+8], 0)
JIT 缓存到寄存器 是因为 发现了 内存访问的速度慢了 100 倍以上,就像 CPU 一样,JIT 出于良好的意图,缓存了变量。
因此它无法检测到别的线程中的修改。
volatile 解决了这里的问题,迫使 JIT 不进行缓存。
说完可见性了我们在来说下 volatile 的另外一个特性:内存屏障
确保在执行下一个上传/下载指令之前,已完成从 volatile 变量的下载指令。
确保在执行对volatile 变量的当前上传指令之前,完成了上一个上传/下载指令。
但是 volatile 并不禁止在完成上一条上传指令之前完成对 volatile 变量的下载指令。
CPU 可以并行执行并可以继续执行任何先执行的操作。
正是由于 volatile 关键字无法阻止,所以这就是这里发生的情况:
变成这个
因此,由于 CPU 认为这些指令是独立的,因此在 y 更新之前先读取 x,同理在 Test1 方法也是会发生 x 更新之前先读取 y。
所以才会出现本文例子的坑~~!
如何解决?
输入内存屏障 内存屏障是对 CPU 的一种特殊锁定指令,它禁止指令在该屏障上重新排序。因此,该程序将按预期方式运行,但缺点是会慢几十纳秒。
在我们的示例中,注释了一行代码:
如果取消注释该行,程序将正常运行~~~~~
总结
平常我们说 volatile 一般很容易去理解它的内存可见性,很难理解内存屏障这个概念,内存屏障的概念中对于 volatile 变量的赋值,
volatile 并不禁止在完成上一条上传指令之前完成对 volatile 变量的下载指令。这个在多线程环境下一定得注意!
原文链接:http://www.cnblogs.com/yudongdong/p/14403512.html
如果觉得本文对你有帮助,可以关注一下我公众号,回复关键字【面试】即可得到一份 Java 核心知识点整理与一份面试大礼包!另有更多技术干货文章以及相关资料共享,大家一起学习进步!
版权声明: 本文为 InfoQ 作者【Java王路飞】的原创文章。
原文链接:【http://xie.infoq.cn/article/5531e8d528641707b4c5e49be】。未经作者许可,禁止转载。
评论 (1 条评论)