Java并发内存模型
hanppens-before原则
计算机缓存模型
缓存行及伪共享
基于计算机的缓存模型,计算机认为相邻的数据大概率在计算时一起被用到,为了提高效率,CPU从L3读取数据到工作内存(L2)时,默认读取64bytes的数据,会将多个数据值读到工作内存,由此引发缓存一致性问题(两个CPU均读取相同的64kb数据,其中一个CPU修改x数据,另一个CPU修改y数据,两个CPU的工作内存数据需要同步)。
解决缓存一致性问题的方案,现在CPU的数据一致性实现=缓存锁+总线锁
-
总线锁
-
MESI-缓存锁(inter)
使用缓存行对齐可以提高并发效率,解决伪共享
代码执行时乱序问题
- CPU为了提高指令执行效率,会在一条指令执行过程中(比如去内存读取数据(慢100倍)),去同时执行另一条指令,前提是,两条指令没有依赖关系。
- CPU的写操作也可以合并(合并写技术),进而也可能指令重排
如何保证特定情况下不乱序
硬件级别如何保证(CPU级别的内存屏障X86)
- sfence: store| 在sfence指令前的写操作当必须在sfence指令后的写操作前完成。
- lfence:load | 在lfence指令前的读操作当必须在lfence指令后的读操作前完成。
- mfence:modify/mix | 在mfence指令前的读写操作当必须在mfence指令后的读写操作前完成。
- 原子指令,如x86上的”lock …” 指令是一个Full Barrier,执行时会锁住内存子系统来确保执行顺序,甚至跨多个CPU。Software Locks通常使用了内存屏障或原子指令来实现变量可见性和保持程序顺序
JVM级别如何规范(JSR133)
LoadLoad屏障:
对于这样的语句Load1; LoadLoad; Load2,在Load2及后续读取操作要读取的数据被访问前,保证Load1要读取的数据被读取完毕。
StoreStore屏障:
对于这样的语句Store1; StoreStore; Store2,
在Store2及后续写入操作执行前,保证Store1的写入操作对其它处理器可见。
LoadStore屏障:
对于这样的语句Load1; LoadStore; Store2,
在Store2及后续写入操作被刷出前,保证Load1要读取的数据被读取完毕。
StoreLoad屏障:
对于这样的语句Store1; StoreLoad; Load2, 在Load2及后续所有读取操作执行前,保证Store1的写入对所有处理器可见。
volatile的实现细节
-
字节码层面
ACC_VOLATILE -
JVM层面
volatile内存区的读写 都加屏障StoreStoreBarrier
volatile 写操作
StoreLoadBarrier
LoadLoadBarrier
volatile 读操作
LoadStoreBarrier
-
OS和硬件层面
https://blog.youkuaiyun.com/qq_26222859/article/details/52235930
hsdis - HotSpot Dis Assembler
windows lock 指令实现 | MESI实现
synchronized实现细节
- 字节码层面
- 同步方法:ACC_SYNCHRONIZED
- 同步语句块:monitorenter monitorexit
- JVM层面
C C++ 调用了操作系统提供的同步机制 - OS和硬件层面
X86 : lock cmpxchg / xxx
https😕/blog.youkuaiyun.com/21aspnet/article/details/88571740