共计 6032 个字符,预计需要花费 16 分钟才能阅读完成。
导读 | 本文主要介绍 JMM 原理。Java Memory Model 简称 JMM, 是一系列的 Java 虚拟机平台对开发者提供的多线程环境下的内存可见性、是否可以重排序等问题的无关具体平台的统一的保证。 |
Java Memory Model 简称 JMM, 是一系列的 Java 虚拟机平台对开发者提供的多线程环境下的内存可见性、是否可以重排序等问题的无关具体平台的统一的保证。(可能在术语上与 Java 运行时内存分布有歧义,后者指堆、方法区、线程栈等内存区域)。
并发编程有多种风格,除了 CSP(通信顺序进程)、Actor 等模型外,大家最熟悉的应该是基于线程和锁的共享内存模型了。在多线程编程中,需要注意三类并发问题:
- 原子性
- 可见性
- 重排序
原子性涉及到,一个线程执行一个复合操作的时候,其他线程是否能够看到中间的状态、或进行干扰。典型的就是 i ++ 的问题了,两个线程同时对共享的堆内存执行 ++ 操作,而 ++ 操作在 JVM、运行时、CPU 中的实现都可能是一个复合操作, 例如在 JVM 指令的角度来看是将 i 的值从堆内存读到操作数栈、加上一、再写回到堆内存的 i,这几个操作的期间,如果没有正确的同步,其他线程也可以同时执行,可能导致数据丢失等问题。常见的原子性问题又叫竞太条件,是基于一个可能失效的结果进行判断,如读取 - 修改 - 写入。可见性和重排序问题都源于系统的优化。
由于 CPU 的执行速度和内存的存取速度严重不匹配,为了优化性能,基于时间局部性、空间局部性等局部性原理,CPU 在和内存间增加了多层高速缓存,当需要取数据时,CPU 会先到高速缓存中查找对应的缓存是否存在,存在则直接返回,如果不存在则到内存中取出并保存在高速缓存中。现在多核处理器越基本已经成为标配,这时每个处理器都有自己的缓存,这就涉及到了缓存一致性的问题,CPU 有不同强弱的一致性模型,最强的一致性安全性最高,也符合我们的顺序思考的模式,但是在性能上因为需要不同 CPU 之间的协调通信就会有很多开销。
典型的 CPU 缓存结构示意图如下
CPU 的指令周期通常为取指令、解析指令读取数据、执行指令、数据写回寄存器或内存。串行执行指令时其中的读取存储数据部分占用时间较长,所以 CPU 普遍采取指令流水线的方式同时执行多个指令, 提高整体吞吐率,就像工厂流水线一样。
读取数据和写回数据到内存相比执行指令的速度不在一个数量级上,所以 CPU 使用寄存器、高速缓存作为缓存和缓冲,在从内存中读取数据时,会读取一个缓存行 (cache line) 的数据(类似磁盘读取读取一个 block)。数据写回的模块在旧数据没有在缓存中的情况下会将存储请求放入一个 store buffer 中继续执行指令周期的下一个阶段,如果存在于缓存中则会更新缓存,缓存中的数据会根据一定策略 flush 到内存。
public class MemoryModel {
private int count;
private boolean stop;
public void initCountAndStop() {
count = 1;
stop = false;
}
public void doLoop() {while(!stop) {count++;}
}
public void printResult() {System.out.println(count);
System.out.println(stop);
}
}
上面这段代码执行时我们可能认为 count = 1 会在 stop = false 前执行完成,这在上面的 CPU 执行图中显示的理想状态下是正确的,但是要考虑上寄存器、缓存缓冲的时候就不正确了, 例如 stop 本身在缓存中但是 count 不在,则可能 stop 更新后再 count 的 write buffer 写回之前刷新到了内存。
另外 CPU、编译器(对于 Java 一般指 JIT)都可能会修改指令执行顺序,例如上述代码中 count = 1 和 stop = false 两者并没有依赖关系,所以 CPU、编译器都有可能修改这两者的顺序,而在单线程执行的程序看来结果是一样的,这也是 CPU、编译器要保证的 as-if-serial(不管如何修改执行顺序,单线程的执行结果不变)。由于很大部分程序执行都是单线程的,所以这样的优化是可以接受并且带来了较大的性能提升。但是在多线程的情况下,如果没有进行必要的同步操作则可能会出现令人意想不到的结果。例如在线程 T1 执行完 initCountAndStop 方法后,线程 T2 执行 printResult,得到的可能是 0, false, 可能是 1, false, 也可能是 0, true。如果线程 T1 先执行 doLoop(),线程 T2 一秒后执行 initCountAndStop, 则 T1 可能会跳出循环、也可能由于编译器的优化永远无法看到 stop 的修改。
由于上述这些多线程情况下的各种问题,多线程中的程序顺序已经不是底层机制中的执行顺序和结果,编程语言需要给开发者一种保证,这个保证简单来说就是一个线程的修改何时对其他线程可见,因此 Java 语言提出了 JavaMemoryModel 即 Java 内存模型,对于 Java 语言、JVM、编译器等实现者需要按照这个模型的约定来进行实现。Java 提供了 Volatile、synchronized、final 等机制来帮助开发者保证多线程程序在所有处理器平台上的正确性。
在 JDK1.5 之前,Java 的内存模型有着严重的问题,例如在旧的内存模型中,一个线程可能在构造器执行完成后看到一个 final 字段的默认值、volatile 字段的写入可能会和非 volatile 字段的读写重排序。
所以在 JDK1.5 中,通过 JSR133 提出了新的内存模型,修复之前出现的问题。
是否可以重排序 | 第二个操作 | 第二个操作 | 第二个操作 |
---|---|---|---|
第一个操作 | 普通读 / 普通写 | volatile 读 /monitor enter | volatile 写 /monitor exit |
普通读 / 普通写 | No | ||
voaltile 读 /monitor enter | No | No | No |
volatile 写 /monitor exit | No | No |
其中普通读指 getfield, getstatic, 非 volatile 数组的 arrayload, 普通写指 putfield, putstatic, 非 volatile 数组的 arraystore。
volatile 读写分别是 volatile 字段的 getfield, getstatic 和 putfield, putstatic。
monitorenter 是进入同步块或同步方法,monitorexist 指退出同步块或同步方法。
上述表格中的 No 指先后两个操作不允许重排序,如 (普通写, volatile 写) 指非 volatile 字段的写入不能和之后任意的 volatile 字段的写入重排序。当没有 No 时,说明重排序是允许的,但是 JVM 需要保证最小安全性 - 读取的值要么是默认值,要么是其他线程写入的(64 位的 double 和 long 读写操作是个特例,当没有 volatile 修饰时,并不能保证读写是原子的,底层可能将其拆分为两个单独的操作)。
final 字段有两个额外的特殊规则
- final 字段的写入(在构造器中进行)以及 final 字段对象本身的引用的写入都不能和后续的(构造器外的)持有该 final 字段的对象的写入重排序。例如, 下面的语句是不能重排序的
x.finalField = v; ...; sharedRef = x;
- final 字段的第一次加载不能和持有这个 final 字段的对象的写入重排序,例如下面的语句是不允许重排序的
x = sharedRef; ...; i = x.finalField
处理器都支持一定的内存屏障 (memory barrier) 或栅栏 (fence) 来控制重排序和数据在不同的处理器间的可见性。例如,CPU 将数据写回时,会将 store 请求放入 write buffer 中等待 flush 到内存,可以通过插入 barrier 的方式防止这个 store 请求与其他的请求重排序、保证数据的可见性。可以用一个生活中的例子类比屏障,例如坐地铁的斜坡式电梯时,大家按顺序进入电梯,但是会有一些人从左侧绕过去,这样出电梯时顺序就不相同了,如果有一个人携带了一个大的行李堵住了(屏障),则后面的人就不能绕过去了:)。另外这里的 barrier 和 GC 中用到的 write barrier 是不同的概念。
内存屏障的分类
几乎所有的处理器都支持一定粗粒度的 barrier 指令,通常叫做 Fence(栅栏、围墙),能够保证在 fence 之前发起的 load 和 store 指令都能严格的和 fence 之后的 load 和 store 保持有序。通常按照用途会分为下面四种 barrier
LoadLoad Barriers
Load1; LoadLoad; Load2;
保证 Load1 的数据在 Load2 及之后的 load 前加载
StoreStore Barriers
Store1; StoreStore; Store2
保证 Store1 的数据先于 Store2 及之后的数据 在其他处理器可见
LoadStore Barriers
Load1; LoadStore; Store2
保证 Load1 的数据的加载在 Store2 和之后的数据 flush 前
StoreLoad Barriers
Store1; StoreLoad; Load2
保证 Store1 的数据在其他处理器前可见 (如 flush 到内存) 先于 Load2 和之后的 load 的数据的加载。StoreLoad Barrier 能够防止 load 读取到旧数据而不是最近其他处理器写入的数据。
几乎近代的所有的多处理器都需要 StoreLoad,StoreLoad 的开销通常是最大的,并且 StoreLoad 具有其他三种屏障的效果,所以 StoreLoad 可以当做一个通用的 (但是更高开销的) 屏障。
所以,利用上述的内存屏障,可以实现上面表格中的重排序规则
需要的屏障 | 第二个操作 | 第二个操作 | 第二个操作 | 第二个操作 |
---|---|---|---|---|
第一个操作 | 普通读 | 普通写 | volatile 读 /monitor enter | volatile 写 /monitor exit |
普通读 | LoadStore | |||
普通读 | StoreStore | |||
voaltile 读 /monitor enter | LoadLoad | LoadStore | LoadLoad | LoadStore |
volatile 写 /monitor exit | StoreLoad | StoreStore |
为了支持 final 字段的规则,需要对 final 的写入增加 barrier
x.finalField = v; StoreStore; sharedRef = x;
插入内存屏障
基于上面的规则,可以在 volatile 字段、synchronized 关键字的处理上增加屏障来满足内存模型的规则
- volatile store 前插入 StoreStore 屏障
- 所有 final 字段写入后但在构造器返回前插入 StoreStore
- volatile store 后插入 StoreLoad 屏障
- 在 volatile load 后插入 LoadLoad 和 LoadStore 屏障
- monitor enter 和 volatile load 规则一致,monitor exit 和 volatile store 规则一致。
前面提到的各种内存屏障对应开发者来说还是比较复杂底层,因此 JMM 又可以使用一系列 HappenBefore 的偏序关系的规则方式来说明,要想保证执行操作 B 的线程看到操作 A 的结果(无论 A 和 B 是否在同一个线程中执行), 那么在 A 和 B 之间必须要满足 HappenBefore 关系,否则 JVM 可以对它们任意重排序。
HappendBefore 规则包括
- 程序顺序规则: 如果程序中操作 A 在操作 B 之前,那么同一个线程中操作 A 将在操作 B 之前进行
- 监视器锁规则: 在监视器锁上的锁操作必须在同一个监视器锁上的加锁操作之前执行
- volatile 变量规则: volatile 变量的写入操作必须在该变量的读操作之前执行
- 线程启动规则: 在线程上对 Thread.start 的调用必须在该线程中执行任何操作之前执行
- 线程结束规则: 线程中的任何操作都必须在其他线程检测到该线程已经结束之前执行
- 中断规则: 当一个线程在另一个线程上调用 interrupt 时,必须在被中断线程检测到 interrupt 之前执行
- 传递性: 如果操作 A 在操作 B 之前执行,并且操作 B 在操作 C 之前执行,那么操作 A 在操作 C 之前执行。
其中显示锁与监视器锁有相同的内存语义,原子变量与 volatile 有相同的内存语义。锁的获取和释放、volatile 变量的读取和写入操作满足全序关系,所以可以使用 volatile 的写入在后续的 volatile 的读取之前进行。
可以利用上述 HappenBefore 的多个规则进行组合。
例如线程 A 进入监视器锁后,在释放监视器锁之前的操作根据程序顺序规则 HappenBefore 于监视器释放操作,而监视器释放操作 HappenBefore 于后续的线程 B 的对相同监视器锁的获取操作,获取操作 HappenBefore 与线程 B 中的操作。
- http://gee.cs.oswego.edu/dl/jmm/cookbook.html
- 《Java Concurrency in practice》
- https://www.cs.umd.edu/~pugh/java/memoryModel/jsr-133-faq.html
- https://en.wikipedia.org/wiki/Java_memory_model
- https://en.wikipedia.org/wiki/Happened-before
- https://zeroturnaround.com/rebellabs/java-memory-model-pragmatics-by-aleksey-shipilev/
- https://dzone.com/articles/java-memory-model-programer%E2%80%99s
- http://www.cs.umd.edu/~pugh/java/memoryModel/Dagstuhl.pdf
- https://shipilev.net/blog/2014/jmm-pragmatics/
- https://www.youtube.com/watch?v=TxqsKzxyySo
- http://tutorials.jenkov.com/java-concurrency/java-memory-model.html
- http://gee.cs.oswego.edu/dl/cpj/jmm.html
- http://www.cs.umd.edu/~pugh/java/memoryModel/
- http://www.cs.umd.edu/~pugh/java/memoryModel/jsr133.pdf