Java 并发关键字 -volatile
在生成汇编代码时会在 volatile 修饰的共享变量进行写操作的时候会多出 Lock 前缀的指令(具体的大家可以使用一些工具去看一下,这里我就只把结果说出来)。我们想这个 Lock 指令肯定有神奇的地方,那么 Lock 前缀的指令在多核处理器下会发现什么事情了?主要有这两个方面的影响:
将当前处理器缓存行的数据写回系统内存;
这个写回内存的操作会使得其他 CPU 里缓存了该内存地址的数据无效
为了提高处理速度,处理器不直接和内存进行通信,而是先将系统内存的数据读到内部缓存(L1,L2 或其他)后再进行操作,但操作完不知道何时会写到内存。如果对声明了 volatile 的变量进行写操作,JVM 就会向处理器发送一条 Lock 前缀的指令,将这个变量所在缓存行的数据写回到系统内存。但是,就算写回到内存,如果其他处理器缓存的值还是旧的,再执行计算操作就会有问题。所以,在多处理器下,为了保证各个处理器的缓存是一致的,就会实现缓存一致性协议,每个处理器通过嗅探在总线上传播的数据来检查自己缓存的值是不是过期了,当处理器发现自己缓存行对应的内存地址被修改,就会将当前处理器的缓存行设置成无效状态,当处理器对这个数据进行修改操作的时候,会重新从系统内存中把数据读到处理器缓存里。因此,经过分析我们可以得出如下结论:
Lock 前缀的指令会引起处理器缓存写回内存;
一个处理器的缓存回写到内存会导致其他处理器的缓存失效;
当处理器发现本地缓存失效后,就会从内存中重读该变量数据,即可以获取当前最新值。
这样针对 volatile 变量通过这样的机制就使得每个线程都能获得该变量的最新值。
经过上面的分析,我们已经知道了 volatile 变量可以通过缓存一致性协议保证每个线程都能获得最新值,即满足数据的“可见性”。我们继续延续上一篇博客分析问题的方式(我一直认为思考问题的方式是属于自己,也才是最重要的,也在不断培养这方面的能力),我一直将并发分析的切入点分为两个核心,三大性质。两大核心:JMM 内存模型(主内存和工作内存)以及 happens-before;三条性质:原子性,可见性,有序性(关于三大性质的总结在以后得文章会和大家共同探讨)。废话不多说,先来看两个核心之一:volatile 的 happens-before 关系。
在六条happens-before规则中有一条是:volatile 变量规则:**对一个 volatile 域的写,ha
ppens-before 于任意后续对这个 volatile 域的读**。下面我们结合具体的代码,我们利用这条规则推导下:
public class VolatileExample {
private int a = 0;
private volatile boolean flag = false;
public void writer(){
a = 1; //1
flag = true; //2
}
public void reader(){
if(flag){ //3
int i = a; //4
}
}
}
上面的实例代码对应的 happens-before 关系如下图所示:
加锁线程 A 先执行 writer 方法,然后线程 B 执行 reader 方法,图中每一个箭头两个节点就代码一个 happens-before 关系,黑色的代表根据程序顺序规则推导出来,红色的是根据 volatile 变量的写 happens-before 于任意后续对 volatile 变量的读,而蓝色的就是根据传递性规则推导出来的。这里的 2 happen-before 3,同样根据 happens-before 规则定义:如果 A happens-before B,则 A 的执行结果对 B 可见,并且 A 的执行顺序先于 B 的执行顺序,我们可以知道操作 2 执行结果对操作 3 来说是可见的,也就是说当线程 A 将 volatile 变量 flag 更改为 true 后线程 B 就能够迅速感知。
还是按照两个核心的分析方式,分析完 happens-before 关系后我们现在就来进一步分析 volatile 的内存语义(按照这种方式去学习,会不会让大家对知识能够把握的更深,而不至于不知所措,如果大家认同我的这种方式,不妨给个赞,小弟在此谢过,对我是个鼓励)。还是以上面的代码为例,假设线程 A 先执行 writer 方法,线程 B 随后执行 reader 方法,初始时线程的本地内存中 flag 和 a 都是初始状态,下图是线程 A 执行 volatile 写后的状态图。
当 volatile 变量写后,线程中本地内存中共享变量就会置为失效的状态,因此线程 B 再需要读取从主内存中去读取该变量的最新值。下图就展示了线程 B 读取同一个 volatile 变量的内存变化示意图。
从横向来看,线程 A 和线程 B 之间进行了一次通信,线程 A 在写 volatile 变量时,实际上就像是给 B 发送了一个消息告诉线程 B 你现在的值都是旧的了,然后线程 B 读这个 volatile 变量时就像是接收了线程 A 刚刚发送的消息。既然是旧的了,那线程 B 该怎么办了?自然而然就只能去主内存去取啦。
好的,我们现在两个核心:happens-before 以及内存语义现在已经都了解清楚了。是不是还不过瘾,突然发现原来自己会这么爱学习(微笑脸),那我们下面就再来一点干货----volatile 内存语义的实现。
volatile 的内存语义实现
我们都知道,为了性能优化,JMM 在不改变正确语义的前提下,会允许编译器和处理器对指令序列进行重排序,那如果想阻止重排序要怎么办了?答案是可以添加内存屏障。
内存屏障
JMM 内存屏障分为四类见下图,
Java 编译器会在生成指令系列时在适当的位置会插入内存屏障指令来禁止特定类型的处理器重排序。为了实现 volatile 的内存语义,JMM 会限制特定类型的编译器和处理器重排序,JMM 会针对编译器制定 volatile 重排序规则表:
"NO"表示禁止重排序。为了实现 volatile 内存语义时,编译器在生成字节码时,会在指令序列中插入内存屏障来禁止特定类型的处理器重排序。对于编译器来说,发现一个最优布置来最小化插入屏障的总数几乎是不可能的,为此,JMM 采取了保守策略:
在每个 volatile 写操作的前面插入一个 StoreStore 屏障;
在每个 volatile 写操作的后面插入一个 StoreLoad 屏障;
在每个 volatile 读操作的后面插入一个 LoadLoad 屏障;
在每个 volatile 读操作的后面插入一个 LoadStore 屏障。
需要注意的是:volatile 写是在前面和后面分别插入内存屏障,而 volatile 读操作是在后面插入两个内存屏障
StoreStore 屏障:禁止上面的普通写和下面的 volatile 写重排序;
StoreLoad 屏障:防止上面的 volatile 写与下面可能有的 volatile 读/写重排序
LoadLoad 屏障:禁止下面所有的普通读操作和上面的 volatile 读重排序
LoadStore 屏障:禁止下面所有的普通写操作和上面的 volatile 读重排序
下面以两个示意图进行理解,图片摘自相当好的一本书《Java 并发编程的艺术》。
我们现在已经理解 volatile 的精华了,文章开头的那个问题我想现在我们都能给出答案了。更正后的代码为:
public class VolatileDemo {
private static volatile boolean isOver = false;
评论