【并发编程的艺术】Java 内存模型总结
系列文章:
基于前面系列文章,我们可以对 Java 内存模型(JMM)进行总结,内容如下:
一 处理器的内存模型
常见处理器的内存模型特征如下表所示:
从上表中可见,所有处理器都允许写-读重排序,因为都使用了写缓存,而写缓存可能导致写-读操作重排序。同时,也发现这些处理器内存模型都允许更早读到当前处理器的写,原因也是因为写缓存。由于写缓存只对当前处理器可见,这个特性可以使当前处理器比其他处理器先看到临时保存在自己写缓存的写。
处理器的一个设计原则:越是追求性能的处理器,内存模型会设计得越弱。因为内存模型的限制会阻碍处理器对性能的优化,所以这是一个取舍问题。
常见的处理器内存模型要弱于 JMM。为了屏蔽 JMM 与处理器,以及不同处理器之间内存模型的差异,Java 编译器在生成字节码时,会在执行指令序列的适当位置插入内存屏障,来限制一些重排序;不同处理器中需要插入的内存屏障数量和种类也不相同。针对上面表中列举的几种处理器,JMM 需要插入的内存屏障示意图如下所示:
二 JMM 与处理器内存模型、顺序一致性模型关系
首先明确几点:
1、JMM 是语言级的内存模型
2、处理器内存模型是硬件级的内存模型
3、顺序一致性模型是理论参考模型
它们之间的关系对比如下图所示:
JMM 与顺序一致性模型在单线程/多线程,以及是否正确同步的条件下执行结果情况:
三 JSR-133 的改进
JSR-133 对应 JDK5 版本,对以前的旧内存模型的补充和改进主要有以下两个:
1、增强 volatile 内存语义
以前的模型允许 volatile 变量与非 volatile 变量重排序,而 JSR-133 严格限制了两种变量的重排序,使 volatile 的写-读和锁的释放-获取有了相同的内存语义。
2、增强 final 的内存语义
在以前的模型中,多次读取同一个 final 变量的值是有可能不同的。JSR-133 给 final 增加了两个重排序规则,在保证 final 引用不会从构造函数内逃逸的情况下,final 具有了初始化安全性。
参考文章
The JSR-133 Cookbook for Compiler Writers
版权声明: 本文为 InfoQ 作者【程序员架构进阶】的原创文章。
原文链接:【http://xie.infoq.cn/article/52cc98bfc1c827636cd51aa8e】。文章转载请联系作者。
评论