java concurrency: ConcurrentHashMap

本文详细剖析了ConcurrentHashMap的内部实现原理,包括其结构、构造函数、典型方法等,并探讨了锁分离机制如何提高多线程环境下的并发性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

引言

    以前有几次碰到过一个有意思的多线程问题,当时的场景看起来比较简单。有两个线程,他们都需要写数据到统一的一个数据结构里,因为这两个线程是相互独立的,在他们执行的过程中我们将每个线程的一组名值对输出。当时觉得这不过是一个很简单的问题,我们可以用一个HashTable或者HashMap就可以了。我们可以保证两个线程访问数据的key是不同的,看起来应该不会存在多线程访问的冲突。实际运行的时候却发现有的时候会出现一个线程执行结束之后另外一个却被卡在那里的现象。后来看了一些相关的材料后才知道,问题似乎不是那么简单。

    关于HashMap在并行情况下会出现的问题,这篇文章有一个很详细的分析。

ConcurrenctHashMap实现

    从官方的文档可以看到,在多线程的情况下推荐我们使用ConcurrentHashMap。那么和HashMap比起来,它有什么特殊的地方呢?这里,我们针对不同的各方面进行一下详细的分析。 

结构

整体结构

    笼统的来说,ConcurrentHashMap里面也是由一个个的HashEntry组成的。这里HashEntry的定义如下:

Java代码   收藏代码
  1. static final class HashEntry<K,V> {  
  2.         final int hash;  
  3.         final K key;  
  4.         volatile V value;  
  5.         volatile HashEntry<K,V> next;  
  6.   
  7.         HashEntry(int hash, K key, V value, HashEntry<K,V> next) {  
  8.             this.hash = hash;  
  9.             this.key = key;  
  10.             this.value = value;  
  11.             this.next = next;  
  12.         }  
  13.   
  14. //... omitted  
  15.     }  

    从代码中可以看到,这里是一个很典型的链表的节点。和前面的HashMap有点不同的地方在于,这里的value和next都采用了volatile的修饰。这样保证在有多个线程访问的情况下不会出现数据不一致性。(关于volatile相关的分析可以见我的这篇文章。)而从我们了解到HashMap的结构来说,一个HashEntry这样的数组应该就组成了ConcurrentHashMap的整体结构。这样来理解不完全准确。因为在ConcurrentHashMap里,考虑到它需要经历多线程的访问,它的结构是分段的。

    如何理解这个分段呢?我们来看一些代码。在ConcurrentHashMap里有这么一个声明:

Java代码   收藏代码
  1. final Segment<K,V>[] segments;  

    而Segment的大体定义如下:

Java代码   收藏代码
  1. static final class Segment<K,V> extends ReentrantLock implements Serializable {  
  2.   
  3.         private static final long serialVersionUID = 2249069246763182397L;  
  4.   
  5.         static final int MAX_SCAN_RETRIES =  
  6.             Runtime.getRuntime().availableProcessors() > 1 ? 64 : 1;  
  7.   
  8.         /** 
  9.          * The per-segment table. Elements are accessed via 
  10.          * entryAt/setEntryAt providing volatile semantics. 
  11.          */  
  12.         transient volatile HashEntry<K,V>[] table;  
  13.   
  14.         transient int count;  
  15.   
  16.         transient int modCount;  
  17.   
  18.         transient int threshold;  
  19.   
  20.         final float loadFactor;  
  21.   
  22.         Segment(float lf, int threshold, HashEntry<K,V>[] tab) {  
  23.             this.loadFactor = lf;  
  24.             this.threshold = threshold;  
  25.             this.table = tab;  
  26.         }  
  27. }  

    这里有一个典型的定义就是里面定义了HashEntry数组。为什么要将整个ConcurrentHashMap拆成Segment的数组呢?实际上,每个Segment我们可以将其看成是一个HashMap,处于多线程情况的考虑,我们分出了多个Segment,每个Segment对应一个访问的线程,这样在有并发访问的情况下,只要两个线程的数据访问操作不是在同一个Segment里面,他们是可以并行执行的。这里体现出来了一个ConcurrentHashMap设计的重要思路,就是分离锁。

    综上所述,ConcurrentHashMap的结构则如下图所示:

 

Segment详解

    Segment里面的设计看起来和一个普通的HashMap差别不大。如果仔细去分析里面的方法的话,会发现很多有意思的地方。这里就列举一下里面的方法:

方法名说明
put添加元素
rehash调整表长度并拷贝元素到新表
remove删除元素
replace替换元素
clear清除元素
scanAndLockForPut根据给定的key找到特定的节点来添加元素,并加锁
scanAndLock根据给定的key找到特定的节点,并加锁

    似乎很奇怪,这里所有的访问方法都是和写相关的,并没有定义和读相关的。因为在ConcurrentHashMap里,对元素的读操作是可以并行执行的,他们之间不会产生多线程的问题。所以在这里我们不需要做特殊的处理,只要通过定义找到该元素并返回就可以了。而这里的写操作则不一样,因为牵涉到对元素的修改,如果我们要保证该部分的元素是线程安全的,我们就需要加锁处理了。这些写操作里都有加锁和释放锁的行为。这里我们针对put方法和rehash方法的实现细节详细分析一下。put方法的代码如下:

Java代码   收藏代码
  1. final V put(K key, int hash, V value, boolean onlyIfAbsent) {  
  2.     // 获取锁以及插入的node元素  
  3.         HashEntry<K,V> node = tryLock() ? null :  
  4.         scanAndLockForPut(key, hash, value);  
  5.     V oldValue;  
  6.     try {  
  7.         HashEntry<K,V>[] tab = table;  
  8.         int index = (tab.length - 1) & hash;  
  9.             // 通过entryAt获取到需要加入值的slot  
  10.         HashEntry<K,V> first = entryAt(tab, index);  
  11.         for (HashEntry<K,V> e = first;;) {  
  12.             if (e != null) {  
  13.                 K k;  
  14.             if ((k = e.key) == key ||  
  15.                         (e.hash == hash && key.equals(k))) {  
  16.                     oldValue = e.value;  
  17.                         if (!onlyIfAbsent) {  
  18.                         e.value = value;  
  19.                             ++modCount;  
  20.                         }  
  21.                         break;  
  22.                     }  
  23.                     e = e.next;  
  24.                 } else { //如果在slot里没有找到匹配的key  
  25.                     if (node != null//如果在前面的scanAndLockForPut方法里成功创建了node节点对象  
  26.                         node.setNext(first);  
  27.                     else  
  28.                         node = new HashEntry<K,V>(hash, key, value, first);  
  29.                     int c = count + 1;  
  30.                     if (c > threshold && tab.length < MAXIMUM_CAPACITY)  
  31.                     // 判断是否达到表长度的阀值,如果是则要调整表长度  
  32.                         rehash(node);  
  33.                     else  
  34.                         setEntryAt(tab, index, node);  
  35.                     ++modCount;  
  36.                     count = c;  
  37.                     oldValue = null;  
  38.                     break;  
  39.                 }  
  40.             }  
  41.         } finally {  
  42.             unlock();  
  43.         }  
  44.     return oldValue;  
  45. }  

     这里的代码其实并不是太复杂。前面的scanAndLockForPut方法已经获得Segment部分的锁。所以在后面的finally部分需要调用unlock方法来释放锁。除了这一部分,我们再想想put操作需要注意的几个点,一个就是如果需要放置的元素已经有值了,我们则需要更新这个旧的值。而如果这个值不存在,我们可能需要新建一个元素添加进去,这里还要判断的一个点就是当长度达到一个阀值的时候会调用rehash方法来调整表的长度。

    我们再来看看rehash方法的具体操作:

Java代码   收藏代码
  1. private void rehash(HashEntry<K,V> node) {  
  2.             HashEntry<K,V>[] oldTable = table;  
  3.             int oldCapacity = oldTable.length;  
  4.             int newCapacity = oldCapacity << 1//新表长度加倍,保证长度一直是2的幂  
  5.             threshold = (int)(newCapacity * loadFactor);  
  6.             HashEntry<K,V>[] newTable =  
  7.                 (HashEntry<K,V>[]) new HashEntry[newCapacity];  
  8.             int sizeMask = newCapacity - 1// sizeMask用来通过和hash值与计算求下标  
  9.             for (int i = 0; i < oldCapacity ; i++) {  
  10.                 HashEntry<K,V> e = oldTable[i];  
  11.                 if (e != null) {  
  12.                     HashEntry<K,V> next = e.next;  
  13.                     int idx = e.hash & sizeMask;  
  14.                     if (next == null)   //  Single node on list  
  15.                         newTable[idx] = e;  
  16.                     else { // Reuse consecutive sequence at same slot  
  17.                         HashEntry<K,V> lastRun = e;  
  18.                         int lastIdx = idx;  
  19.                         for (HashEntry<K,V> last = next;  
  20.                              last != null;  
  21.                              last = last.next) {  
  22.                             int k = last.hash & sizeMask;  
  23.                             if (k != lastIdx) {  
  24.                                 lastIdx = k;  
  25.                                 lastRun = last;  
  26.                             }  
  27.                         }  
  28.                         newTable[lastIdx] = lastRun;  
  29.                         // Clone remaining nodes  
  30.                         for (HashEntry<K,V> p = e; p != lastRun; p = p.next) {  
  31.                             V v = p.value;  
  32.                             int h = p.hash;  
  33.                             int k = h & sizeMask;  
  34.                             HashEntry<K,V> n = newTable[k];  
  35.                             newTable[k] = new HashEntry<K,V>(h, p.key, v, n);  
  36.                         }  
  37.                     }  
  38.                 }  
  39.             }  
  40.             int nodeIndex = node.hash & sizeMask; // add the new node  
  41.             node.setNext(newTable[nodeIndex]);  
  42.             newTable[nodeIndex] = node;  
  43.             table = newTable;  
  44.         }  

    前面代码里有一个部分比较让人困惑,就是在当我们找到一个next不为null的节点的时候我们遍历这个链表,并记录lastRun, lastIdx。因为我们这里重新计算的k是通过每个元素的hash值和新的sizeMask做与元算得到的。这里原来在一个slot里的元素可能不一定映射到同一个下面了,所以这里就保留了最后一个指向相同索引的元素,然后将这个引用直接赋值给新表中的元素。这样就相当于将链表的一截截取到一个新的slot中。这部分的代码其实是想取一点点巧,这样取得到最后一段index相同的元素,可以直接搬过去就可以了,而不用像后面的循环里每次重新构造一个同样的对象再加入到链表的头部。

   后面接着的for循环将原来旧表中的内容不断拷贝到新的slot中。

   后面4行代码则比较简单,只是将新的节点加入到指定的slot中。这里是相当于将节点加入到链表的头部。

   总的来说,这部分的代码看起来很多,里面却没有用到多少技巧。简单的来说还是创建一个新的数组,再将原有的元素重新映射。因为有的元素是一个链表,所以要遍历里面所有链表的内容。

    有了这部分的分析,其他部分的理解也就很容易了。不再赘述。

构造函数

    有了前面对ConcurrentHashMap的一个总体描述,我们再来看看它的构造函数,通过这个构造函数,我们可以看到它的元素分配方式。

    这里是ConcurrentHashMap的一个构造函数,其他重载的构造函数其实都是通过调用它来实现的:

 

Java代码   收藏代码
  1. public ConcurrentHashMap(int initialCapacity,  
  2.                              float loadFactor, int concurrencyLevel) {  
  3.         if (!(loadFactor > 0) || initialCapacity < 0 || concurrencyLevel <= 0)  
  4.             throw new IllegalArgumentException();  
  5.         if (concurrencyLevel > MAX_SEGMENTS)  
  6.             concurrencyLevel = MAX_SEGMENTS;  
  7.         // Find power-of-two sizes best matching arguments  
  8.         int sshift = 0;  
  9.         int ssize = 1;  
  10.         while (ssize < concurrencyLevel) {  
  11.             ++sshift;  
  12.             ssize <<= 1;  
  13.         }  
  14.         this.segmentShift = 32 - sshift;  
  15.         this.segmentMask = ssize - 1;  
  16.         if (initialCapacity > MAXIMUM_CAPACITY)  
  17.             initialCapacity = MAXIMUM_CAPACITY;  
  18.         int c = initialCapacity / ssize;  
  19.         if (c * ssize < initialCapacity)  
  20.             ++c;  
  21.         int cap = MIN_SEGMENT_TABLE_CAPACITY;  
  22.         while (cap < c)  
  23.             cap <<= 1;  
  24.         // create segments and segments[0]  
  25.         Segment<K,V> s0 =  
  26.             new Segment<K,V>(loadFactor, (int)(cap * loadFactor),  
  27.                              (HashEntry<K,V>[])new HashEntry[cap]);  
  28.         Segment<K,V>[] ss = (Segment<K,V>[])new Segment[ssize];  
  29.         UNSAFE.putOrderedObject(ss, SBASE, s0); // ordered write of segments[0]  
  30.         this.segments = ss;  
  31.     }  

   这里的代码看起来也不少,实际分析起来也不难,我们一步步看过来。这里有一个关键的参数就是concurrencyLevel,它表示我们希望提供的并行度,也就是说我们希望结构里可以支持多少个并行的线程。假设我们这里设定的concurrencyLevel = 16,也就是说我们希望能够同时支持16个线程访问。那么从前面讨论分离锁的思路来说,我们就应该要将整个表分成16个段。这里我们将看到,当while (ssize < concurrencyLevel)这个循环部分执行完毕之后,ssize = 16。

    而后面计算c的部分则用来确认一个Segment里面的数组大致长度。既然定的是16个线程访问那么它的长度应该就是>=initialCapacity / ssize。当然,这里还只是一个粗略的估计,因为在这里还有一个和HashMap里相同的地方,就是它还必须是2的指数。所以后面的while (cap < c)循环里通过将cap不断长度翻倍来达到这个目标。而cap最初始的值就是2。

    后面定义的Segment[]数组的长度肯定就是16了,表示有16个Segment。这里并没有一次把所有的Segment段都创建了,只是创建了一个。

典型方法分析

    我们先来看看get方法的具体实现:

Java代码   收藏代码
  1. public V get(Object key) {  
  2.         Segment<K,V> s; // manually integrate access methods to reduce overhead  
  3.         HashEntry<K,V>[] tab;  
  4.         int h = hash(key);  
  5.         long u = (((h >>> segmentShift) & segmentMask) << SSHIFT) + SBASE;  
  6.         if ((s = (Segment<K,V>)UNSAFE.getObjectVolatile(segments, u)) != null &&  
  7.             (tab = s.table) != null) {  
  8.             for (HashEntry<K,V> e = (HashEntry<K,V>) UNSAFE.getObjectVolatile  
  9.                      (tab, ((long)(((tab.length - 1) & h)) << TSHIFT) + TBASE);  
  10.                  e != null; e = e.next) {  
  11.                 K k;  
  12.                 if ((k = e.key) == key || (e.hash == h && key.equals(k)))  
  13.                     return e.value;  
  14.             }  
  15.         }  
  16.         return null;  
  17.     }  

    前面这部分代码最麻烦的地方在于根据key计算出来hash值之后映射到特定segment以及segment里面的index。long u = (((h >>> segmentShift) & segmentMask) << SSHIFT) + SBASE;这一部分是用来计算所在segment的索引。而((tab.length - 1) & h)) << TSHIFT) + TBASE则用来计算映射到特定HashEntry的index。

    我们再看看remove方法:

Java代码   收藏代码
  1. public V remove(Object key) {  
  2.         int hash = hash(key);  
  3.         Segment<K,V> s = segmentForHash(hash);  
  4.         return s == null ? null : s.remove(key, hash, null);  
  5.     }  

     这里用另外一个方法segmentForHash可以根据hash值得到所处的segment段。然后再调用segment对象里的remove方法。segment里面的remove方法分析思路和前面的put方法类似,都是通过加锁然后操作,这里就不详细分析。有兴趣的可以去对照参考一下。

    前面的segmentForHash方法的实现如下:

Java代码   收藏代码
  1. private Segment<K,V> segmentForHash(int h) {  
  2.         long u = (((h >>> segmentShift) & segmentMask) << SSHIFT) + SBASE;  
  3.         return (Segment<K,V>) UNSAFE.getObjectVolatile(segments, u);  
  4.     }  

    这里和前面get方法里部分的代码一样,关键还是值的映射。这里的难点就在于怎么通过移位比较来计算出所在的segment段以及映射到的索引。

总结

    关于ConcurrentHashMap的分析这里主要是参照了openjdk的一个实现。不同实现版本的细节存在一些差别。不过他们的整体思想都是一样的,就是锁分离的机制。将一个大的HashMap拆分成多个segment,然后在每个segment段运用独立的锁来操作。这样多个线程可以并发的操作不同segment。当然这种机制带来的一个复杂的地方就是根据一个hash值映射到某个segment及某个特定的index。另外因为可能有多个线程访问同一个段,所以里面关键的数据值是声明为volatile的,这是为了保证一个线程修改后的结果能够马上被后续访问的线程看到。总的来说,ConcurrentHashMap带来了一定程度的可定制化并行度

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值