概述
ConcurrentHashMap相比于HashMap来说,ConcurrentHashMap是线程安全的。**底层利用 CAS + synchronized **的方式来保证并发更新的安全性。
重要成员变量
1、table:底层存储键值对的数组,默认为null,初始化发生在第一次插入操作,默认大小为16的数组。扩容时总是扩容2的幂次方。
2、nextTable:默认为null,扩容时新生成的数组,其大小为原数组的2倍。
3、sizeCtl:默认为0,用来控制table的初始化和扩容操作。
-1代表 table正在被初始化。
-N 表示 有N-1个线程 正在进行扩容操作。
其余情况:
如果table未初始化,表示table需要初始化的大小。
如果table初始化化完成,表示table的容量,默认是table的0.75倍。
4、Node:保存key、value及key的hash值的数据结构。其中value和next都用volatile修饰,保证并发的可见性。
class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
volatile V val;
volatile Node<K,V> next;
//... 省略部分代码
}
5、ForwardingNode:一个特殊地Node节点,hash值为-1,其中存储nextTable的引用,只要table发生扩容,ForwardingNode才会发挥作用,作为一个占位符放在table中表示当前节点为null,或者已经被移动。
final class ForwardingNode<K,V> extends Node<K,V> {
final Node<K,V>[] nextTable;
ForwardingNode(Node<K,V>[] tab) {
super(MOVED, null, null, null);
this.nextTable = tab;
}
}
putVal()方法
final V putVal(K key, V value, boolean onlyIfAbsent) {
// 如果key为空,或者值为空,抛出异常。可见,ConcurrentHashMap不支持null值的插入。
if (key == null || value == null) throw new NullPointerException();
// 计算哈希值
int hash = spread(key.hashCode());
int binCount = 0;
//无限循环,防止插入失败。
for (Node<K,V>[] tab = table;;) {
Node<K,V> f; int n, i, fh;
// table还没有被初始化,先去初始化table。
if (tab == null || (n = tab.length) == 0)
tab = initTable();
// 计算出当前节点所在的位置上没有元素,则使用CAS操作,将该节点插入到指定位置。
else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
if (casTabAt(tab, i, null,
new Node<K,V>(hash, key, value, null)))
break; // no lock when adding to empty bin
}
// 判断该位置上的是否已经是ForwardingNode节点,如果是,说明其他线程正在进行扩容操作,则当前线程去帮助扩容。
else if ((fh = f.hash) == MOVED)
tab = helpTransfer(tab, f);
// 其他线程没有在扩容,并且计算出的位置上存在其他节点,则使用synchronized将该位置上进行加锁。然后找该位置上的链表/红黑树是否有相同的key,若有则新值覆盖旧值。
else {
V oldVal = null;
// 分段锁。
synchronized (f) {
if (tabAt(tab, i) == f) {
if (fh >= 0) {
binCount = 1;
for (Node<K,V> e = f;; ++binCount) {
K ek;
if (e.hash == hash &&
((ek = e.key) == key ||
(ek != null && key.equals(ek)))) {
// 新值覆盖旧值
oldVal = e.val;
if (!onlyIfAbsent)
e.val = value;
break;
}
Node<K,V> pred = e;
if ((e = e.next) == null) {
pred.next = new Node<K,V>(hash, key,
value, null);
break;
}
}
}
// 如果该位置上的节点是树节点,则通过树的方式插入
else if (f instanceof TreeBin) {
Node<K,V> p;
binCount = 2;
if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
value)) != null) {
oldVal = p.val;
if (!onlyIfAbsent)
p.val = value;
}
}
}
}
if (binCount != 0) {
// 如果一个存储桶上的元素超过8个,则将链表转为数。
if (binCount >= TREEIFY_THRESHOLD)
treeifyBin(tab, i);
if (oldVal != null)
return oldVal;
break;
}
}
}
addCount(1L, binCount);
return null;
}
ConcurrentHashMap使用的是分段锁+CAS操作来保证线程安全的。分段锁体现在:
synchronized (f) {
if (tabAt(tab, i) == f) {
if (fh >= 0) {
binCount = 1;
for (Node<K,V> e = f;; ++binCount) {
K ek;
if (e.hash == hash &&
((ek = e.key) == key ||
(ek != null && key.equals(ek)))) {
oldVal = e.val;
if (!onlyIfAbsent)
e.val = value;
break;
}
Node<K,V> pred = e;
if ((e = e.next) == null) {
pred.next = new Node<K,V>(hash, key,
value, null);
break;
}
}
他并不是对整个hashmap进行加锁,而是先通过hashcode直到他要放在哪一个分段中,然后对这个分段进行加锁,所以当多线程put的时候,只要不是放在一个分段中,就实现了真正的并行的插入。
我们来看一看table初始化的函数initTable():
private final Node<K,V>[] initTable() {
Node<K,V>[] tab; int sc;
while ((tab = table) == null || tab.length == 0) {
// 先判断sizeCtl是否为负数,如果为负数,则说明有线程正在进行初始化操作或扩容操作
// 当前线程只需要让出cpu时间片即可。
if ((sc = sizeCtl) < 0)
Thread.yield(); // lost initialization race; just spin
// sizeCtl为正数时,两种情况:① table没有被初始化 ② table已经被初始化,sizeCtl代表table容量
// 先用CAS操作,将sizeCtl值为-1.表示有线程正在初始化数组。
else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
try {
// 当前线程初始化数组:
if ((tab = table) == null || tab.length == 0) {
// 判断sizeCtl是否大于0,大于0说明sizeCtl表示的数组容量
// 否则,则说明第一次初始化table,将table初始化为容量为16的数组。
int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
@SuppressWarnings("unchecked")
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
table = tab = nt;
// 计算sizeCtl
sc = n - (n >>> 2);
}
} finally {
sizeCtl = sc;
}
break;
}
}
return tab;
}
可以看到,在进行初始化时,会首先判断sizeCtl的值,从而进行初始化操作。当table没有被初始化时,会先使用CAS操作将sizeCtl的值置为-1,确保其他线程的可见性。
我们再来看看tabAt():
static final <K,V> Node<K,V> tabAt(Node<K,V>[] tab, int i) {
return (Node<K,V>)U.getObjectVolatile(tab, ((long)i << ASHIFT) + ABASE);
}
tabAt():是用来获取table对应的索引元素f。这里使用的是Unsafe.getObjecVolatie()来获取f,而不是直接使用table[index]的原因是跟ConcurrentHashMap的弱一致性有关。在Java内存模型中,每个线程都有一个工作内存。里面存储着table的副本,虽然table使用volatie修饰,但不能保证每次拿到table中的元素是最新的,Unsafe.getObjectVolatie可以获取指定内存的数据,保证了每次拿到的数据都是最新的。
并发扩容:transfer()
ConcurrentHashMap最精华的部分就是它的扩容机制了,我们一起来看看:
/**
* Moves and/or copies the nodes in each bin to new table. See
* above for explanation.
*
* transferIndex 表示转移时的下标,初始为扩容前的 length。
*
* 我们假设长度是 32
*/
private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {
int n = tab.length, stride;
// 将 length / 8 然后除以 CPU核心数。如果得到的结果小于 16,那么就使用 16。
// 这里的目的是让每个 CPU 处理的桶一样多,避免出现转移任务不均匀的现象,如果桶较少的话,默认一个 CPU(一个线程)处理 16 个桶
if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)
stride = MIN_TRANSFER_STRIDE; // subdivide range 细分范围 stridea:TODO
// 新的 table 尚未初始化
if (nextTab == null) { // initiating
try {
// 扩容 2 倍
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1];
// 更新
nextTab = nt;
} catch (Throwable ex) { // try to cope with OOME
// 扩容失败, sizeCtl 使用 int 最大值。
sizeCtl = Integer.MAX_VALUE;
return;// 结束
}
// 更新成员变量
nextTable = nextTab;
// 更新转移下标,就是 老的 tab 的 length
transferIndex = n;
}
// 新 tab 的 length
int nextn = nextTab.length;
// 创建一个 fwd 节点,用于占位。当别的线程发现这个槽位中是 fwd 类型的节点,则跳过这个节点。
ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab);
// 首次推进为 true,如果等于 true,说明需要再次推进一个下标(i--),反之,如果是 false,那么就不能推进下标,需要将当前的下标处理完毕才能继续推进
boolean advance = true;
// 完成状态,如果是 true,就结束此方法。
boolean finishing = false; // to ensure sweep before committing nextTab
// 死循环,i 表示下标,bound 表示当前线程可以处理的当前桶区间最小下标
for (int i = 0, bound = 0;;) {
Node<K,V> f; int fh;
// 如果当前线程可以向后推进;这个循环就是控制 i 递减。同时,每个线程都会进入这里取得自己需要转移的桶的区间
while (advance) {
int nextIndex, nextBound;
// 对 i 减一,判断是否大于等于 bound (正常情况下,如果大于 bound 不成立,说明该线程上次领取的任务已经完成了。那么,需要在下面继续领取任务)
// 如果对 i 减一大于等于 bound(还需要继续做任务),或者完成了,修改推进状态为 false,不能推进了。任务成功后修改推进状态为 true。
// 通常,第一次进入循环,i-- 这个判断会无法通过,从而走下面的 nextIndex 赋值操作(获取最新的转移下标)。其余情况都是:如果可以推进,将 i 减一,然后修改成不可推进。如果 i 对应的桶处理成功了,改成可以推进。
if (--i >= bound || finishing)
advance = false;// 这里设置 false,是为了防止在没有成功处理一个桶的情况下却进行了推进
// 这里的目的是:1. 当一个线程进入时,会选取最新的转移下标。2. 当一个线程处理完自己的区间时,如果还有剩余区间的没有别的线程处理。再次获取区间。
else if ((nextIndex = transferIndex) <= 0) {
// 如果小于等于0,说明没有区间了 ,i 改成 -1,推进状态变成 false,不再推进,表示,扩容结束了,当前线程可以退出了
// 这个 -1 会在下面的 if 块里判断,从而进入完成状态判断
i = -1;
advance = false;// 这里设置 false,是为了防止在没有成功处理一个桶的情况下却进行了推进
}// CAS 修改 transferIndex,即 length - 区间值,留下剩余的区间值供后面的线程使用
else if (U.compareAndSwapInt
(this, TRANSFERINDEX, nextIndex,
nextBound = (nextIndex > stride ?
nextIndex - stride : 0))) {
bound = nextBound;// 这个值就是当前线程可以处理的最小当前区间最小下标
i = nextIndex - 1; // 初次对i 赋值,这个就是当前线程可以处理的当前区间的最大下标
advance = false; // 这里设置 false,是为了防止在没有成功处理一个桶的情况下却进行了推进,这样对导致漏掉某个桶。下面的 if (tabAt(tab, i) == f) 判断会出现这样的情况。
}
}// 如果 i 小于0 (不在 tab 下标内,按照上面的判断,领取最后一段区间的线程扩容结束)
// 如果 i >= tab.length(不知道为什么这么判断)
// 如果 i + tab.length >= nextTable.length (不知道为什么这么判断)
if (i < 0 || i >= n || i + n >= nextn) {
int sc;
if (finishing) { // 如果完成了扩容
nextTable = null;// 删除成员变量
table = nextTab;// 更新 table
sizeCtl = (n << 1) - (n >>> 1); // 更新阈值
return;// 结束方法。
}// 如果没完成
if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {// 尝试将 sc -1. 表示这个线程结束帮助扩容了,将 sc 的低 16 位减一。
if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)// 如果 sc - 2 不等于标识符左移 16 位。如果他们相等了,说明没有线程在帮助他们扩容了。也就是说,扩容结束了。
return;// 不相等,说明没结束,当前线程结束方法。
finishing = advance = true;// 如果相等,扩容结束了,更新 finising 变量
i = n; // 再次循环检查一下整张表
}
}
else if ((f = tabAt(tab, i)) == null) // 获取老 tab i 下标位置的变量,如果是 null,就使用 fwd 占位。
advance = casTabAt(tab, i, null, fwd);// 如果成功写入 fwd 占位,再次推进一个下标
else if ((fh = f.hash) == MOVED)// 如果不是 null 且 hash 值是 MOVED。
advance = true; // already processed // 说明别的线程已经处理过了,再次推进一个下标
else {// 到这里,说明这个位置有实际值了,且不是占位符。对这个节点上锁。为什么上锁,防止 putVal 的时候向链表插入数据
synchronized (f) {
// 判断 i 下标处的桶节点是否和 f 相同
if (tabAt(tab, i) == f) {
Node<K,V> ln, hn;// low, height 高位桶,低位桶
// 如果 f 的 hash 值大于 0 。TreeBin 的 hash 是 -2
if (fh >= 0) {
// 对老长度进行与运算(第一个操作数的的第n位于第二个操作数的第n位如果都是1,那么结果的第n为也为1,否则为0)
// 由于 Map 的长度都是 2 的次方(000001000 这类的数字),那么取于 length 只有 2 种结果,一种是 0,一种是1
// 如果是结果是0 ,Doug Lea 将其放在低位,反之放在高位,目的是将链表重新 hash,放到对应的位置上,让新的取于算法能够击中他。
int runBit = fh & n;
Node<K,V> lastRun = f; // 尾节点,且和头节点的 hash 值取于不相等
// 遍历这个桶
for (Node<K,V> p = f.next; p != null; p = p.next) {
// 取于桶中每个节点的 hash 值
int b = p.hash & n;
// 如果节点的 hash 值和首节点的 hash 值取于结果不同
if (b != runBit) {
runBit = b; // 更新 runBit,用于下面判断 lastRun 该赋值给 ln 还是 hn。
lastRun = p; // 这个 lastRun 保证后面的节点与自己的取于值相同,避免后面没有必要的循环
}
}
if (runBit == 0) {// 如果最后更新的 runBit 是 0 ,设置低位节点
ln = lastRun;
hn = null;
}
else {
hn = lastRun; // 如果最后更新的 runBit 是 1, 设置高位节点
ln = null;
}// 再次循环,生成两个链表,lastRun 作为停止条件,这样就是避免无谓的循环(lastRun 后面都是相同的取于结果)
for (Node<K,V> p = f; p != lastRun; p = p.next) {
int ph = p.hash; K pk = p.key; V pv = p.val;
// 如果与运算结果是 0,那么就还在低位
if ((ph & n) == 0) // 如果是0 ,那么创建低位节点
ln = new Node<K,V>(ph, pk, pv, ln);
else // 1 则创建高位
hn = new Node<K,V>(ph, pk, pv, hn);
}
// 其实这里类似 hashMap
// 设置低位链表放在新链表的 i
setTabAt(nextTab, i, ln);
// 设置高位链表,在原有长度上加 n
setTabAt(nextTab, i + n, hn);
// 将旧的链表设置成占位符
setTabAt(tab, i, fwd);
// 继续向后推进
advance = true;
}// 如果是红黑树
else if (f instanceof TreeBin) {
TreeBin<K,V> t = (TreeBin<K,V>)f;
TreeNode<K,V> lo = null, loTail = null;
TreeNode<K,V> hi = null, hiTail = null;
int lc = 0, hc = 0;
// 遍历
for (Node<K,V> e = t.first; e != null; e = e.next) {
int h = e.hash;
TreeNode<K,V> p = new TreeNode<K,V>
(h, e.key, e.val, null, null);
// 和链表相同的判断,与运算 == 0 的放在低位
if ((h & n) == 0) {
if ((p.prev = loTail) == null)
lo = p;
else
loTail.next = p;
loTail = p;
++lc;
} // 不是 0 的放在高位
else {
if ((p.prev = hiTail) == null)
hi = p;
else
hiTail.next = p;
hiTail = p;
++hc;
}
}
// 如果树的节点数小于等于 6,那么转成链表,反之,创建一个新的树
ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) :
(hc != 0) ? new TreeBin<K,V>(lo) : t;
hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) :
(lc != 0) ? new TreeBin<K,V>(hi) : t;
// 低位树
setTabAt(nextTab, i, ln);
// 高位数
setTabAt(nextTab, i + n, hn);
// 旧的设置成占位符
setTabAt(tab, i, fwd);
// 继续向后推进
advance = true;
}
}
}
}
}
}
总结:
① 通过计算CPU核心数和Map数组长度得到每个线程应该要帮助处理多少个桶。每个线程处理桶的个数是相同的。默认每个线程处理16个桶,如果数组长度为16,则扩容时,只有一个线程在进行扩容。
② 初始化nextTable,默认为原table的2倍。
③ 进入死循环,根据finishing变量来判断扩容是否结束。
④ for死循环中的while循环用来控制每个线程在自己的桶区间的递减的过程,其中bound参数指的是该线程此次可以处理的区间的最小下标。超过这个下标,就需要重新领取区间或者当前线程借书扩容。还有一个advance参数,表示是否继续递减转移到下一个桶。true代表转移,false表示不转移。
⑤ 跳出while循环后,进入if判断,判断扩容是否结束,如果结束,清空遍历,更新table。如果没结束,且没有要扩容的去见了,则该线程退出transfer()方法,并使sizeCtl-1,表示扩容的线程减少一个。当sizeCtl回归初始状态时,表示没有线程再进行扩容了,该方法中所有的线程扩容结束。然后检查所有的桶,防止遗漏。
⑥ 如果没有完成任务,且i对应的槽位为空,尝试使用CAS插入占位符,让putVal方法的线程感知。
⑦ 如果i对应的槽位不是空,且有了占位符,则当前线程跳过该槽位,处理下一个槽位
⑧ 如果以上都不是,说明槽位有实际的值,开始同步处理这个桶。
⑨ 到此,还没有真正的进行同步处理,只是将每个线程处理的桶区间划分,然后完成状态的一些判断。
⑩ 处理每个桶都是同步的,防止putVal插入数据,如果这个桶是链表,则将这个链表拆成2分,取余结果为0放在新数组的低位,取余结果为1,放在新数组的高位。如果桶是树,也拆成2份,拆分和链表一样,然后判断拆分过的树的节点数列,如果小于等于6,改成链表,反之继续使用红黑树。
参考文章:https://www.jianshu.com/p/2829fe36a8dd
本文详细介绍了 ConcurrentHashMap 的实现原理,包括其线程安全机制、重要成员变量如 table、nextTable、sizeCtl 和 Node、ForwardingNode 的作用,以及 putVal() 方法的并发控制。在并发扩容方面,重点阐述了 transfer() 方法的桶转移策略,如何通过 CAS 和分段锁保证并发安全,并通过 CPU 核心数和桶数量平衡扩容任务。通过对扩容过程的分析,展示了 ConcurrentHashMap 如何在保证高并发性能的同时实现高效扩容。
2088

被折叠的 条评论
为什么被折叠?



