Java并发机制的底层实现原理

本文深入探讨Java并发机制的底层实现,包括volatile关键字的工作原理及其优化技巧,synchronized的多种锁状态及其实现机制,以及Java如何利用锁和循环CAS实现原子操作。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Java代码在编译后会变成Java字节码,字节码被类加载器加载到JVM里,JVM执行字节码,最终转化成汇编指令在CPU上执行,Java中所使用的并发机制依赖于JVM的实现和CPU的指令,本文将深入底层一起探索Java并发机制的底层实现。

2.1volatile的应用

多线程并发编程中synchronized和volatile都扮演着重要角色,volatile是轻量级的synchronized,它在多处理器开发中保证了共享变量的可见性。可见性是指当一个线程修改一个共享变量时,另外一个线程能读到这个修改的值。如果volatile变量修饰符使用恰当,它比synchronized的使用和执行成本更低,因为它不会引起线程上下文切换和调度。本文深入分析硬件层面上Intel处理器是如何实现volatile的,通过深入分析帮助我们正确使用volatile变量。

1.volatile的定义与实现原理

定义:Java编程语言允许线程访问共享变量,为了确保共享变量能被准确和一致地更新,线程应该确保通过排他锁单独获得这个变量。Java语言提供了volatile,在某些情况下比锁更加方便。如果一个字段被声明成volatile,Java线程内存模型确保所有线程看到这个变量的值是一致的。

在了解volatile实现原理前,我们先看下与其实现原理相关的CPU术语与说明。

volatile如何保证可见性的呢?我们通过在X86处理器下通过工具获取JIT编译器生成的汇编指令来查看对volatile进行写操作时,CPU会做什么事。

Java代码如下:

instance = new Singleton(); // instance是volatile变量

转变成汇编代码,如下:

有volatile变量修饰的共享变量进行写操作时会多出:后的汇编代码,通过查IA-32架构软件开发者手册可知,Lock前缀的指令在多核处理器下会引发两件事。

1.将当前处理器缓存行的数据写会到系统内存

2.这个写回内存的操作会使在其他CPU缓存了该内存地址的数据无效。

为了提高处理速度,处理器不直接和内存进行通信,而是先将系统内存的数据读到内部缓存后再进行操作,但操作完不知道何时会写到内存。如果对声明了volatile的变量进行写操作,JVM就会向处理器发送一条lock前缀指令,将这个变量所在缓存行的数据写回到系统内存。但是,就算写回到内存,如果其他处理器缓存的值还是旧的,再执行计算操作就会有问题。所以,在多处理器下,为了保证各个处理器的缓存一致,就会实现缓存一致性协议,每个处理器通过嗅探在总线上传播的数据来检查自己缓存的值是不是过期了,当处理器发现自己缓存行对应的内存地址被修改,就会将当前处理器的缓存行设置成无效状态,当处理器对这个数据进行修改操作时,会重新从系统内存中把数据读到处理器缓存中。

2,.volatile的使用优化

著名的Java并发编程大师Doug lea在JDK 7的并发包里新增一个队列集合类Linked-TransferQueue,他在使用volatile变量时,用一种追加字节的方式来优化队列出队和入队的性能。linkedTransferQueue的代码如下:

追加字节能优化性能?

这种方式看起来很神奇,但是如果深入理解处理器架构就能理解其中奥秘。LinkedTransferQueue这个类,使用一个内部类类型来定义队列的头结点(head)和尾节点(tail),而这个内部类PaddedAtomicReference相对于父类AtomicReference只做了一件事,就是将共享变量追加到64字节。可以计算下,一个对象的引用占4个字节,它追加了15个变量(共占60个字节),再加上父类的value变量,一共64个字节。

为什么追加64字节能够提高并发编程的效率?

因为当前主流的处理器的高速缓存行是64个字节宽,不支持部分填充缓存行,这意味着,如果队列的头节点和尾节点有不足64字节,处理器会将它们都读到同一个高速缓存行,在多处理器下每个处理器都会都会缓存同样的头、尾节点,当一个处理器试图修改头节点时,会将整个缓存行锁定,那么在缓存一致性机制下,会导致其他处理器不能访问自己高速缓存中的尾节点,而队列的入队和出队操作则需要不停修改头节点和尾节点,所以在多处理器情况下将会严重影响到队列的入队和出队效率。Doug lea使用追加到64字节的方式来填满高速缓冲区的缓存行,避免头节点和尾节点加载到同一个缓存行,使头为节点在修改时不会互相锁定。

是不是volatile变量都应该追加到64字节?

不是的。在两种场景下不应该使用这种方式。

1、缓存行非64字节宽的处理器。如P6和奔腾处理器,他们的L1和L2高速缓存行是32个字节宽。

2、共享变量不会被频繁的写。因为使用追加字节的方式需要处理器读取更多的字节到高速缓冲区,这本身就会带来一定的性能消耗,如果共享变量不被频繁写的话,锁的几率也就非常小,就没必要通过追加字节的方式来避免相互锁定。

不过这种追加字节的方式在Java7下可能不生效,因为Java7更加智慧,他会淘汰或重新排列无用字段,需要使用其他追加字节的方式。除了volatile,Java并发编程中应用较多的是synchronized。

2.2synchronized的实现原理与应用

在多线程并发编程中synchronized一直是元老级角色,是重量级锁。但是,随着Java SE1.6对synchronized进行了各种优化之后,有些情况下他就并不那么重了。本文详细介绍1.6中问了减少获得锁和释放锁带来的性能消耗而引入的偏向锁和轻量级锁,以及锁的存储结构和升级过程。

先看下利用synchronized实现同步的基础:Java中的每一个对象都可以作为锁。具体为:

对于普通同步方法,锁是当前实例对象。

对于静态同步方法,锁是当前类的Class对象。

对于同步方法快,锁是synchronized括号里配置的对象。

当一个线程试图访问同步代码块时,它首先必须得到锁,退出或抛出异常时必须释放锁。

那么锁到底存在哪里,锁里面会存储什么信息呢?

从JVM规范中中可以看到,synchronized在JVM的实现原理,JVM基于进入和退出Monitor对象来实现方法同步和代码同步,但两者的实现细节不一样。代码块同步是使用monitor enter和nonitor exit指令实现的,而方法同步是使用另外一种方式实现的,细节在JVM规范里并没有详细说明。但是,方法的同步同样可以使用功能这两个指令来实现。

monitor enter指令是在编译后插入到同步代码块开始位置,而monitor exit是插入到方法结束处和异常处,JVM要保证每个monitor enter必须有对应的monitor exit与之匹配。任何一个对象都有一个monitor与之关联,当且一个monitor被持有后,他将处于锁定状态。线程执行到monitor enter指令时,将会尝试获取对象所对应的monitor的所有权,即尝试获得对象的锁。

2.2.1Java对象头

synchronized用的锁是存在于Java对象头中的。如果对象时数组类型,则虚拟机使用3个字宽存储对象头,因为除了存储数组自身运行时数据与类型指针外,还需要存储记录数组长度的数据,因为虚拟机可以通过普通Java对象的元数据确定Java对象的大小,但是从数组的元数据中却无法确定数组大小。   如果对象是非数组类型,则用2字宽存储对象头。在32位虚拟机中1字宽等于4字节,即32bit,如表2-2所示。

Java对象头里的Mark Word里默认存储对象的HahsCode、分代年龄和锁标记位等信息。32为JVM的Mark word的默认存储结构如下图:

在运行期间,Mark Word里存储的数据会随着锁标志位的变化而变化。Maed Word可能变化为存储以下4中数据:

在64位虚拟机下,Mark Word是64bit大小的,其存储结构如下图:

2.2.2锁的升级与对比

Java SE1.6为了减少获得锁和释放锁带来的性能消耗,引入了偏向锁和轻量级锁,在1.6中,锁一共有4种状态,级别从低到高依次是:无锁状态、偏向锁状态、轻量级锁状态和重量级锁状态,这几个状态会随着竞争情况逐渐升级。锁可以升级但不能降级,意味着偏向锁升级成轻量级锁后不能降级成偏向锁。这种锁升级却不降级的策略,目的是提高获得锁和释放锁的效率

1.偏向锁

Hotspot作者经过研究发现,大多数情况下,锁不仅不存在多线程竞争,而且总是有同一线程多次获得,为了让线程获得锁的代价更低而引入了偏向锁。当一个线程访问同步块并获取锁时,会在对象头和栈帧中的锁记录里存储锁偏向的线程ID,以后该线程在进入和退出同步块时不需要进行CAS操作来加锁和解锁,只需要简单地测试下对象头的mark word中是否存储着指向当前线程的偏向锁。如果测试成功,表示线程已经获得了锁。如果测试失败,则需要再测试下mark word中偏向锁的标识是否设置为1(表示当前是偏向锁):如果没有设置,则使用CAS竞争锁;如果设置了,则尝试使用CAS将对象头的偏向锁指向当前线程。

(1)偏向锁的撤销

偏向锁使用了一种等到竞争出现才释放锁的机制,所以当其他线程尝试竞争偏向锁时,持有偏向锁的线程才会释放锁。偏向锁的撤销,需要等待全局安全点(这个时间点上没有正在执行的字节码)。他首先会暂停拥有偏向锁的线程,然后检查持有偏向锁的线程是否活着,如果线程不处于活动状态,则将对象头设置成无锁状态;如果线程仍然活着,拥有偏向锁的栈会被执行,遍历偏向对象的锁记录,栈中锁记录和对象有的Mark Word要么重新偏向于其他线程,要么恢复到无锁或者标记对象不适合作为偏向锁,最后唤醒暂停的线程。

下图中,线程1演示了偏向锁初始化流程,线程2演示了偏向锁撤销流程

(2)关闭偏向锁

偏向锁在Java6和Java7里是默认启用的,但是它在应用程序启动几秒之后才激活,如有必要可以使用JVM参数来关闭延迟:-XX:BiasedLockingStartupDelay=0。如果确定应用程序里所有的锁通常情况下处于竞争状态,可以通过JVOM参数关闭偏向锁:-XX:-UseBiasedLocking=false,那么程序默认会进入轻量级锁状态。

2.轻量级锁

(1)轻量级加锁

线程在执行同步块之前,JVM会先在当前线程的栈帧中创建用于存储锁记录的空间,并将对象头的Mark Word复制到锁记录中,官方称为Displaced Mark Word。然后线程尝试使用CAS将对象头中的mark Word替换为指向锁记录的指针。如果成功,当前线程获得锁,如果失败,表示其他线程竞争锁,当前线程便尝试使用自旋来获取锁。

(2)轻量级解锁

轻量级解锁,会使用原子的CAS操作将Displace Mark Word替换回对象头,如果成功,则表示没有竞争发生。如果失败,表示当前锁存在竞争,锁就会膨胀成重量级锁。下图是两个线程同时争夺锁,导致锁膨胀的流程:

因为自旋会消耗CPU,为了避免无用的自旋(比如获得锁的线程被阻塞了),一旦锁升级成重量级锁,就不会再恢复到轻量级锁状态。当锁处于这个状态下,其他线程试图获取锁时,都会被阻塞住,当持有锁的线程释放锁之后会唤醒这些线程,被唤醒的线程会进行新一轮的夺锁。

3.锁的优缺点对比

2.3原子操作的实现原理

原子(atomic)本意是“不能被进一步分割的最小粒子”,而原子操作意为“不可被中断的一个或一系列操作”。在多处理器上实现原子操作就变得有点复杂。

1.术语定义

2.处理器如何实现原子操作

32位IA-32处理器使用基于对缓存加锁或总线加锁的方式来实现多处理器之间的原子操作。首先处理器会自动保证基本的内存操作的原子性。处理器保证从系统内存中读取或写入一个字节是原子的,意思是当一个处理器读取一个字节时其他处理器不能访问这个字节的内存地址。

(1)使用总线锁保证原子性

第一个机制是通过总线锁保证原子性。如果多个处理器同时对共享变量进行读写改操作(i++就是经典的读写改操作),那么共享变量就会被多个处理器同时进行操作,这样读写改操作就不是原子的,操作完之后共享变量的值会和期望的不一致。举个例子,如果i=1,我们进行两次i+=操作,期望结果是3,但是有可能结果是2.

原因可能是多个处理器同时从各自的缓存中读取变量i,分别进行+1操作,然后分别写入系统内存中。那么,想要保证读写改共享变量的操作时原子的,就必须保证CPU1读写改共享变量时,CPU2不能操作缓存了该共享变量内存地址的缓存。

处理器使用总线锁就是来解决这个问题的。所谓总线锁就是使用处理器提供的一个LOCK信号,当一个处理器在总线上输出此信号时,其他处理器的请求将被阻塞住,那么该处理器可以独占共享内存。

(2)使用缓存锁保证原子性

第二个机制是通过缓存锁来保证原子性。在同一时刻,只需保证对某个内存地址的操作时原子性即可,但总线锁定把CPU和内存之间的通信锁住了,这使得锁定期间,其他处理器不能操作其他内存地址的数据,所以总线锁定的开销比较大,目前处理器在某些场合下使用缓存锁定代替总线锁定来进行优化。

频繁使用的内存会缓存在处理器的L1  L2  L3高速缓存中,那么原子操作就可以直接在处理器内部缓存中进行,并不需要声明总线锁。 所谓 缓存锁定是指内存区域如果被缓存在处理器的缓存行中,并且在Lock操作期间被锁定,那么当它执行锁操作回写到内存时,处理器不在总线上声言LOCK信号,而是修改内部的内存地址,并允许它的缓存一致性机制来保证操作的原子性。因为缓存一致性机制会阻止同时修改由两个以上处理器缓存的内存区域数据,当其他处理器回写已被锁定的缓存行数据时,会使缓存行无效。  上面例子中,CPU1修改缓存行中的i时使用了缓存锁定,那么CPU2就不能同时缓存i的缓存行。

两种情况下处理器不会使用缓存锁定:

第一种情况:操作的数据不能被缓存在处理器内部,或操作的数据跨多个缓存行时,则处理器会调用总线锁定。

第二种情况:有些处理器不支持缓存锁定。就算锁定的内存区域在处理器的缓存行中也会调用总线锁定。

针对以上两个机制,我们通过Intel处理器提供了很多Lock前缀的指令来实现。例如,位测试和修改指令:BTS,BTR,BTC;交换指令XADD、CMPXCHG,以及其他一些操作数和逻辑指令(如ADD、OR)等,被这些指令操作的内存区域就会加锁,导致其他处理器不能同时访问它。

3.Java如何实现原子操作

Java中使用锁和循环CAS的方式来实现原子操作。

(1)使用循环CAS实现原子操作

JVM的CAS操作正是利用了处理器提供的CMPXCHG指令实现的。自旋CAS实现的基本思路就是循环进行CAS操作直到成功为止,以下代码实现了一个基于CAS线程安全的计数器方法safeCount和一个非线程安全的计数器count

	private AtomicInteger atomicI = new AtomicInteger(0);
	/** * 使用CAS实现线程安全计数器 */
	private void safeCount() {
		for (;;) {
			int i = atomicI.get();
			boolean suc = atomicI.compareAndSet(i, ++i);
			if (suc) {
				break;
			}
		}
	}
	/** 非线程安全的计数器 */
	private void count(){
		int i = 0;
		i++;
	}

1.5开始,JDK的并发包中提供了一些类来支持原子操作,如AtomicBoolean(用原子方式更新boolean值)等等。这些原子包装类还提供了有用的工具方法,比如以原子的方式将当前值自增1和自减1。

(2)CAS实现实现原子操作的三大问题

ABA问题,循环时间开销大,以及只能保证一个共享变量的原子操作。

(1)ABA问题。因为CAS需要在操作值的时候,检查值有没有发生变化,如果没有发生变化则更新,但如果一个值原来是A,变成了B,又变成了A,那么使用CAS检查时会发现它的值没有发生变化,但是实际上却变化了。ABA问题的解决思路是使用版本号。在变量前面追加版本号,每次变量更新时版本号+1,那么ABA就会变成1A 2B 3A。从1.5开始,JDKAtomic包里提供了一个类AtmicStampedReference来解决ABA问题。这个类的compareAndSet方法的作用是首先检查当前引用是否等于预期引用,并且检查当前标志是否等于预期标志,如果全部相等,则以原子方式将该引用和该标志的值设置为更新值。

(2)循环时间开销大。自旋CAS如果长时间不成功,会给CPU带来非常大的执行开销。如果JVM能支持处理器提供的pause指令,那么效率会有一定提升。pause指令由两个作用:第一,它可以延迟流水线执行指令,使CPU不会消耗过多的执行资源,延迟的时间取决于具体实现的版本,在一些处理器上延迟时间是零;第二,它可以避免在退出循环是因内顺序冲突而引起CPU流水线被清空,从而提高CPU执行效率。

(3)只能保证一个共享变量的原子操作。当对一个共享变量执行操作时,可以使用CAS方式保证原子操作,但是对多个共享变量操作时,循环CAS就无法保证操作的原子性,这个时候就可以用锁。还有一个取巧的方法,就是把多个共享变量合成一个共享变量来操作。比如,有两个共享变量i=2,j=a,合并一下ij=2a,然后用CAS来操作ij。从1.5开始,JDK提供了AtomicReference类来保证引用对象之间的原子性,就可以把多个变量放在一个对象里来进行CAS操作。

(3)使用锁机制实现原子操作

锁机制保证了只有获得锁的线程才能操作锁定的内存区域。JVM内部实现了很多种锁机制,有偏向锁、轻量级锁、互斥锁。有意思的是除了偏向锁,JVM实现锁的方式都用了循环CAS,即当一个线程想进入同步块时,使用循环CAS的方式来获取锁,当它退出同步块时使用循环CAS释放锁。

 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值