Java学习----ConcurrentHashMap put()源码解析

ConcurrentHashMap源码解析

ConcurrentHashMap底层与HashMap类似,都是哈希表+链表+红黑树。树化阈值、链化阈值、加载因子等主要参数默认值也都相同,用sizeCtl代替了扩容阈值,但sizeCtl的含义不止表示这个。而且加载因子好像没用到。

重要参数

/**
     * hash表初始化或扩容时的一个控制位标识量。
     *   负数代表正在进行初始化或扩容操作
     *   -1代表正在初始化
     *   -N 表示有N-1个线程正在进行扩容操作
     *   正数或0代表hash表还没有被初始化,这个数值表示初始化或下一次进行扩容的大小
*/
private transient volatile int sizeCtl;   //用到的地方很多,是一个控制标识符

// 以下两个是用来控制扩容的时候 单线程进入的变量
private static int RESIZE_STAMP_BITS = 16;

private static final int RESIZE_STAMP_SHIFT = 32 - RESIZE_STAMP_BITS;

static final int MOVED    = -1; //hash=-1,表示这是一个forwarding节点
static final int TREEBIN   = -2; // hash=-2,表示这是一个TreeBin节点

//扩容时用于存放数据的变量,扩容完成后会置为null。
private transient volatile Node<K,V>[] nextTable;

static class TreeBin  //用于包装红黑树结构的结点类型
static class ForwardingNode //扩容时存放的结点类型,并发扩容的实现关键之一
static class Node //普通结点类型,表示链表头结点

构造函数

//空参构造器
public ConcurrentHashMap() {
}

//指定哈希表初始容量
public ConcurrentHashMap(int initialCapacity) {
    if (initialCapacity < 0)
        throw new IllegalArgumentException();
    int cap = ((initialCapacity >= (MAXIMUM_CAPACITY >>> 1)) ?
               MAXIMUM_CAPACITY :
               tableSizeFor(initialCapacity + (initialCapacity >>> 1) + 1));
    this.sizeCtl = cap;
}

ConcurrentHashMap(int initialCapacity) 该构造函数通过指定得哈希表初始容量initialCapacity,计算了sizeCtl的值,sizeCtl=tableSizeFor(1.5 * initialCapacity + 1),tableSizeFor方法的作用是计算出大于传入值的最小2的n次幂。与HashMap的tableSizeFor方法一样。

put()源码

public V put(K key, V value) {
    return putVal(key, value, false);
}

final V putVal(K key, V value, boolean onlyIfAbsent) {
    if (key == null || value == null) throw new NullPointerException();
    int hash = spread(key.hashCode());
    //记录链表长度
    int binCount = 0;
    for (Node<K,V>[] tab = table;;) {
        Node<K,V> f; int n, i, fh;
        //哈希表为空,需要初始化
        if (tab == null || (n = tab.length) == 0)
            tab = initTable();  //后面分析
        //未发生hash冲突,使用cas插入新元素  若失败,说明存在线程竞争 进入下一个循环
        else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
            if (casTabAt(tab, i, null,
                         new Node<K,V>(hash, key, value, null)))
                break;                   // no lock when adding to empty bin
        }
        //出现hash冲突  但正在扩容
        else if ((fh = f.hash) == MOVED)
            //帮助扩容
            tab = helpTransfer(tab, f);   
        //走动这里说明哈希桶中存在元素,且当前没有扩容  f此时为链表的头节点
        else {
            V oldVal = null;
            //给链表头节点上锁
            synchronized (f) {
                if (tabAt(tab, i) == f) {
                    //此时fn等于f的hash值,大于0说明是链表
                    if (fh >= 0) {
                        binCount = 1;
                        //遍历链表
                        for (Node<K,V> e = f;; ++binCount) {
                            K ek;
                            //待插入的键值对的key与当前节点的key完全相同(hash值相同,==或equals也相同)
                            //新值替换旧值
                            if (e.hash == hash &&
                                ((ek = e.key) == key ||
                                 (ek != null && key.equals(ek)))) {
                                oldVal = e.val;
                                if (!onlyIfAbsent)
                                    e.val = value;
                                break;
                            }
                            Node<K,V> pred = e;
                            //链表中没有与待插入键值对的key相同的,直接尾插到链表中
                            if ((e = e.next) == null) {
                                pred.next = new Node<K,V>(hash, key,
                                                          value, null);
                                break;
                            }
                        }
                    }
                    //f为红黑树
                    else if (f instanceof TreeBin) {
                        Node<K,V> p;
                        binCount = 2;
                        if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
                                                              value)) != null) {
                            oldVal = p.val;
                            if (!onlyIfAbsent)
                                p.val = value;
                        }
                    }
                }
            }
            //binCount不为0,说明操作了链表
            if (binCount != 0) {
                //判断当前链表是否需要树化  阈值为8  链表长度大于8,才会进入这里
                if (binCount >= TREEIFY_THRESHOLD)
                    //如果当前数组的长度小于 64,那么会选择对数组扩容,而不是转换为红黑树
                    treeifyBin(tab, i);
                if (oldVal != null)
                    return oldVal;
                break;
            }
        }
    }
    //更新size
    addCount(1L, binCount);
    return null;
}

put()小结

  1. 检查传入key和value是否为null,为null直接抛出异常,
  2. 计算key的hash值
  3. 如果哈希表table是否为null,为null则去初始化
  4. 如果未发生hash冲突,也就是对应哈希桶未空,则使用CAS操作插入新元素成功,结束;若插入失败,则进入下一个循环。不加锁。
  5. 如果当前桶的头节点的hash=MOVED(-1),说明有线程正在扩容,则协助扩容
  6. 如果发生hash冲突且当前没有线程执行扩容操作,则插入新键值对,这个过程是加锁的。
    1. 若当前桶中为链表,遍历链表,判断是否有键值对的键与待插入键值对的key相同,若有,则将其对应的值替换为新值,若无,则尾插到链表中
    2. 若当前桶中为红黑树,就需要按照树的插入规则进行插入。
    3. 插入结束后,如果操作的是链表,则若当前链表长度大于8且哈希表容量大于等于64,则将此链表转化为红黑树;若当前链表长度大于8但是哈希表容量小于64,则扩容哈希表为原来的两倍。
  7. 更新size,判断是否需要扩容

initTable() 初始化哈希表

private final Node<K,V>[] initTable() {
    Node<K,V>[] tab; int sc;
    while ((tab = table) == null || tab.length == 0) {
        //其他线程正在初始化hash表,让出CPU时间片
        if ((sc = sizeCtl) < 0)
            Thread.yield(); // lost initialization race; just spin
        //CAS操作将sizeCtl标志位置为-1,表示当前线程正在初始化
        //成功表示抢到了锁,则继续初始化
        //失败表示其他线程正在初始化,自旋等待
        else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {  
            try {
                if ((tab = table) == null || tab.length == 0) {
                    int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
                    // 初始化数组,长度为 16 或初始化时提供的长度
                    Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
                    // 将这个数组赋值给 table,table 是 volatile 的   可见的
                    table = tab = nt;
                    // 如果 n 为 16 的话,那么这里 sc = 12
                    // 其实就是 0.75 * n  扩容阈值
                    sc = n - (n >>> 2);
                }
            } finally {
                sizeCtl = sc;
            }
            break;
        }
    }
    return tab;
}

treeBin() 树化

private final void treeifyBin(Node<K,V>[] tab, int index) {
    Node<K,V> b; int n, sc;
    if (tab != null) {
        //哈希表长度小于64,则扩容为原来的两倍
        if ((n = tab.length) < MIN_TREEIFY_CAPACITY)
            tryPresize(n << 1);
        // b 是头结点
        else if ((b = tabAt(tab, index)) != null && b.hash >= 0) {
            synchronized (b) {
                if (tabAt(tab, index) == b) {
                    // 下面就是遍历链表,建立一颗红黑树
                    TreeNode<K,V> hd = null, tl = null;
                    for (Node<K,V> e = b; e != null; e = e.next) {
                        TreeNode<K,V> p =
                            new TreeNode<K,V>(e.hash, e.key, e.val,
                                              null, null);
                        if ((p.prev = tl) == null)
                            hd = p;
                        else
                            tl.next = p;
                        tl = p;
                    }
                    // 将红黑树设置到数组相应位置中
                    setTabAt(tab, index, new TreeBin<K,V>(hd));
                }
            }
        }
    }
}

addCount() 更新size,判断是否需要扩容

private final void addCount(long x, int check) {
    CounterCell[] as; long b, s;
    if ((as = counterCells) != null ||
        !U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {
        CounterCell a; long v; int m;
        boolean uncontended = true;
        if (as == null || (m = as.length - 1) < 0 ||
            (a = as[ThreadLocalRandom.getProbe() & m]) == null ||
            !(uncontended =
              U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {
            fullAddCount(x, uncontended);
            return;
        }
        if (check <= 1)
            return;
        s = sumCount();
    }
    //扩容的关键
    //若当前没有扩容,且数组已经初始化了,则sizeCtl的值等于扩容阈值,也就是0.75*数组容量
    if (check >= 0) {
        Node<K,V>[] tab, nt; int n, sc;
       	//s等于当前数组中实际键值对的数量   s<sizeCtl  则不会扩容
        //s>= sizeCtl  有两种情况:
        //     1. sizeCtl<0,有别的线程正在扩容   transfer(tab, nt);
        //     2. 当前哈希表需要扩容,当前线程会成为第一个扩容的线程,此时nextTable为空   transfer(tab, null);
        while (s >= (long)(sc = sizeCtl) && (tab = table) != null &&
               (n = tab.length) < MAXIMUM_CAPACITY) {
            int rs = resizeStamp(n);
            if (sc < 0) {
                if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
                    sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||
                    transferIndex <= 0)
                    break;
                if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
                    transfer(tab, nt);
            }
            else if (U.compareAndSwapInt(this, SIZECTL, sc,
                                         (rs << RESIZE_STAMP_SHIFT) + 2))
                transfer(tab, null);
            s = sumCount();
        }
    }
}

tryPresize()

putAll批量插入或者插入节点后发现链表长度达到8个以上,但数组长度为64以下时触发的扩容会调用到这个方法.

// 首先要说明的是,方法参数 size 传进来的时候就已经翻了倍了
private final void tryPresize(int size) {
    // c:size 的 1.5 倍,再加 1,再往上取最近的 2 的 n 次方。
    int c = (size >= (MAXIMUM_CAPACITY >>> 1)) ? MAXIMUM_CAPACITY :
    tableSizeFor(size + (size >>> 1) + 1);
    int sc;
    while ((sc = sizeCtl) >= 0) {
        Node<K,V>[] tab = table; int n;
        //初始化数组,这个分支与初始化数组的代码一样
        if (tab == null || (n = tab.length) == 0) {
            n = (sc > c) ? sc : c;
            if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
                try {
                    if (table == tab) {
                        Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
                        table = nt;
                        sc = n - (n >>> 2);
                    }
                } finally {
                    sizeCtl = sc;
                }
            }
        }
        else if (c <= sc || n >= MAXIMUM_CAPACITY)
            break;
        else if (tab == table) {
            //rs高16位为0,第16位为1,低15位标识当前容量n
            int rs = resizeStamp(n);
            if (sc < 0) {
                Node<K,V>[] nt;
                //条件1:检查是对容量n的扩容,保证sizeCtl与n是一块修改好的
                //条件2与条件3:应该是进行sc的最小值或最大值判断。
                //条件4与条件5: 确保tranfer()中的nextTable相关初始化逻辑已走完。
                if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
                    sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||
                    transferIndex <= 0)
                    break;
                //  用 CAS 将 sizeCtl 加 1,然后执行 transfer 方法
                //    此时 nextTab 不为 null
                if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
                    transfer(tab, nt);
            }
            //没有线程在进行扩容,将sizeCtl的值改为(rs << RESIZE_STAMP_SHIFT) + 2)
            //此时sizeCtl高15位(除最高位)标识当前容量n,低16位表示并行扩容线程数+1,具体如下
            else if (U.compareAndSwapInt(this, SIZECTL, sc,
                                         (rs << RESIZE_STAMP_SHIFT) + 2))
                transfer(tab, null);
        }
    }
}

当往hashMap中成功插入一个key/value节点时,有两种情况可能触发扩容动作:

1、如果新增节点之后,所在链表的元素个数达到了阈值 8,则会调用treeifyBin方法把链表转换成红黑树,不过在结构转换之前,会对数组长度进行判断,实现如下:如果数组长度n小于阈值MIN_TREEIFY_CAPACITY,默认是64,则会调用tryPresize方法把数组长度扩大到原来的两倍,并触发transfer方法,重新调整节点的位置。

2、调用put方法新增节点时,在结尾会调用addCount方法记录元素个数,并检查是否需要进行扩容,当数组元素个数达到阈值时,会触发transfer方法,重新调整节点的位置。

resizeStamp()

/**
 * The number of bits used for generation stamp in sizeCtl.
 * Must be at least 6 for 32bit arrays.
*/
private static int RESIZE_STAMP_BITS = 16;

/**
 * The bit shift for recording size stamp in sizeCtl.
 */
private static final int RESIZE_STAMP_SHIFT = 32 - RESIZE_STAMP_BITS;

static final int resizeStamp(int n) {
        return Integer.numberOfLeadingZeros(n) | (1 << (RESIZE_STAMP_BITS - 1));
}

Integer.numberOfLeadingZeros(n)用于计算统计最高位连续0的个数。ConcurrentHashMap的容量肯定为2的幂次方,所以扩容前于扩容后最高位连续0的个数肯定是不同的。这样可以保证是在原容量为n的情况下进行扩容。

1 << (RESIZE_STAMP_BITS - 1)即是1<<15,表示为二进制即是高16位为0,第16位为1:

0000 0000 0000 0000 1000 0000 0000 0000

所以resizeStamp()的返回值(简称为rs) 高16位置0,第16位为1,低15位存放当前容量n扩容标识,用于表示是对容量n的扩容。
rs与RESIZE_STAMP_SHIFT配合可以求出新的sizeCtl的值,分情况如下:

  • sc >= 0
    表示没有线程在扩容,使用CAS将sizeCtl的值改为(rs << RESIZE_STAMP_SHIFT) + 2)。
  • sc < 0
    已经有线程在扩容,将sizeCtl+1并调用transfer()让当前线程参与扩容。

rs即resizeStamp(n),如当前容量为8时sc(sizeCtl)的计算过程如下:

//容量n=8
0000 0000 0000 0000 0000 0000 0000 1000
//Integer.numberOfLeadingZeros(8)=28,二进制表示如下:
0000 0000 0000 0000 0000 0000 0001 1100
//rs
0000 0000 0000 0000 1000 0000 0001 1100
//temp = rs << RESIZE_STAMP_SHIFT,即 temp = rs << 16,左移16后temp最高位为1,所以temp成了一个负数。
1000 0000 0001 1100 0000 0000 0000 0000
//第一个线程要扩容时,sc = (rs << RESIZE_STAMP_SHIFT) + 2)
1000 0000 0001 1100 0000 0000 0000 0010

那么在扩容时sizeCtl值的意义便如下图所示:

高15位低16位
容量n扩容标识并行扩容线程数+1

transfer() 扩容方法

这个方法是有可能会被多线程调用的,put中的helpTransfer就调用了这个方法。

原数组长度为 n,所以我们有 n 个迁移任务,让每个线程每次负责一个小任务是最简单的,每做完一个任务再检测是否有其他没做完的任务,帮助迁移就可以了,而 Doug Lea 使用了一个 stride,简单理解就是步长,每个线程每次负责迁移其中的一部分,如每次迁移 16 个小任务。所以,我们就需要一个全局的调度者来安排哪个线程执行哪几个任务,这个就是属性 transferIndex 的作用。

第一个发起数据迁移的线程会将 transferIndex 指向原数组最后的位置,然后从后往前的 stride 个任务属于第一个线程,然后将 transferIndex 指向新的位置,再往前的 stride 个任务属于第二个线程,依此类推。当然,这里说的第二个线程不是真的一定指代了第二个线程,也可以是同一个线程,这个读者应该能理解吧。其实就是将一个大的迁移任务分为了一个个任务包。

private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {
    int n = tab.length, stride;
     //每个线程处理桶的最小数目,可以看出核数越高步长越小,最小16个。
    if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)
        stride = MIN_TRANSFER_STRIDE; // subdivide range
    if (nextTab == null) {            // initiating
        //nextTab为空,外围会保证第一个发起迁移的线程调用此方法时,参数 nextTab 为 null
        // 之后参与迁移的线程调用此方法时,nextTab 不会为 null
        try {
            //容量翻倍
            Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1];
            nextTab = nt;
        } catch (Throwable ex) {      // try to cope with OOME
            sizeCtl = Integer.MAX_VALUE;
            return;
        }
        // nextTable 是 ConcurrentHashMap 中的属性  也就是扩容后的新数组
        nextTable = nextTab;
         // transferIndex 也是 ConcurrentHashMap 的属性,用于控制迁移的位置 n为原数组长度 从原数组尾部开始挪数据
        transferIndex = n;
    }
    int nextn = nextTab.length;
    
    // ForwardingNode 翻译过来就是正在被迁移的 Node
    // 这个构造方法会生成一个Node,key、value 和 next 都为 null,关键是 hash 为 MOVED
    // 后面我们会看到,原数组中位置 i 处的节点完成迁移工作后,
    //    就会将位置 i 处设置为这个 ForwardingNode,用来告诉其他线程该位置已经处理过了
    //    所以它其实相当于是一个标志。
    ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab);
    
    // 当前线程是否需要继续寻找下一个可处理的节点
    boolean advance = true;
    boolean finishing = false; // to ensure sweep before committing nextTab
    
    // i 是位置索引,bound 是边界,注意是从后往前
    for (int i = 0, bound = 0;;) {
        Node<K,V> f; int fh;
        //类似于分任务 
        //确定当前线程要迁移的桶的范围或通过更新i的值确定当前范围内下一个要处理的节点。
        while (advance) {
            int nextIndex, nextBound;
            if (--i >= bound || finishing)
                advance = false;
            // 将 transferIndex 值赋给 nextIndex
            // 这里 transferIndex 一旦小于等于 0,说明原数组的所有位置都有相应的线程去处理了
            else if ((nextIndex = transferIndex) <= 0) {
                i = -1;
                advance = false;
            }
            else if (U.compareAndSwapInt
                     (this, TRANSFERINDEX, nextIndex,
                      nextBound = (nextIndex > stride ?
                                   nextIndex - stride : 0))) {//transferIndex减去已分配出去的桶
                //确定当前线程每次分配的待迁移桶的范围为[bound, nextIndex)
                bound = nextBound;
                i = nextIndex - 1;
                advance = false;
            }
        }
        //当前线程自己的活已经做完或所有线程的活都已做完,第二与第三个条件应该是下面让"i = n"后,再次进入循环时要做的边界检查。
        if (i < 0 || i >= n || i + n >= nextn) {
            int sc;
            if (finishing) {
                // 所有的迁移操作已经完成
                nextTable = null;
                 // 将新的 nextTab 赋值给 table 属性,完成迁移
                table = nextTab;
                // 重新计算 sizeCtl:n 是原数组长度,所以 sizeCtl 得出的值将是新数组长度的 0.75 倍
                sizeCtl = (n << 1) - (n >>> 1);
                return;
        }
       // 这里使用 CAS 操作对 sizeCtl 进行减 1,代表做完了属于自己的任务,参与线程数-1
       if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {
           // 不相等说明还有别的线程在扩容
           //扩容时,sizeCtl(sc)的初值为 (resizeStamp(n) << RESIZE_STAMP_SHIFT)) + 2
             if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)
                    return;
           // 到这里,说明 (sc - 2) == resizeStamp(n) << RESIZE_STAMP_SHIFT,
           // 也就是说,所有的迁移任务都做完了,也就会进入到上面的 if(finishing){} 分支了
               finishing = advance = true;
               i = n; // recheck before commit
            }
        }
        // 如果位置 i 处是空的,没有任何节点,那么放入刚刚初始化的 ForwardingNode ”空节点“
        else if ((f = tabAt(tab, i)) == null)
            advance = casTabAt(tab, i, null, fwd);
        // 该位置处是一个 ForwardingNode,代表该位置已经迁移过了
        else if ((fh = f.hash) == MOVED)
            advance = true; // already processed
        else {
             // 对数组该位置处的结点加锁,开始处理数组该位置处的迁移工作
            synchronized (f) {
                if (tabAt(tab, i) == f) {
                    Node<K,V> ln, hn;
                    // 头结点的 hash 大于 0,说明是链表的 Node 节点
                    if (fh >= 0) {
//由于n是2的幂次方(所有二进制位中只有一个1),如n=16(0001 0000),第4位为1,那么hash&n后的值第4位只能为0或1。所以可以根据hash&n的结果将所有结点分为两部分。
                        int runBit = fh & n;
                        Node<K,V> lastRun = f;
                        //找出最后一段完整的fh&n不变的链表,这样最后这一段链表就不用重新创建新结点了。
                        for (Node<K,V> p = f.next; p != null; p = p.next) {
                            int b = p.hash & n;
                            if (b != runBit) {
                                runBit = b;
                                lastRun = p;
                            }
                        }
                        if (runBit == 0) {
                            ln = lastRun;
                            hn = null;
                        }
                        else {
                            hn = lastRun;
                            ln = null;
                        }
                        //lastRun之前的结点因为fh&n不确定,所以全部需要重新迁移。
                        //这里是根据扩容后  key的hash值新增参与运算位是0还是1进行分组
                        //这块与HashMap是一样的
                        for (Node<K,V> p = f; p != lastRun; p = p.next) {
                            int ph = p.hash; K pk = p.key; V pv = p.val;
                            if ((ph & n) == 0)
                                ln = new Node<K,V>(ph, pk, pv, ln);
                            else
                                hn = new Node<K,V>(ph, pk, pv, hn);
                        }
                        // 新增参与运算位为0的链表放在新数组的位置 i
                        setTabAt(nextTab, i, ln);
                        // 新增参与运算位为1的链表放在新数组的位置 i+n
                        setTabAt(nextTab, i + n, hn);
                        // 将原数组该位置处设置为 fwd,代表该位置已经处理完毕,
                        //    其他线程一旦看到该位置的 hash 值为 MOVED,就不会进行迁移了
                        setTabAt(tab, i, fwd);
                        // advance 设置为 true,代表该位置已经迁移完毕
                        advance = true;
                    }
                    else if (f instanceof TreeBin) {
                        // 红黑树的迁移
                        TreeBin<K,V> t = (TreeBin<K,V>)f;
                        TreeNode<K,V> lo = null, loTail = null;
                        TreeNode<K,V> hi = null, hiTail = null;
                        int lc = 0, hc = 0;
                        for (Node<K,V> e = t.first; e != null; e = e.next) {
                            int h = e.hash;
                            TreeNode<K,V> p = new TreeNode<K,V>
                                (h, e.key, e.val, null, null);
                            if ((h & n) == 0) {
                                if ((p.prev = loTail) == null)
                                    lo = p;
                                else
                                    loTail.next = p;
                                loTail = p;
                                ++lc;
                            }
                            else {
                                if ((p.prev = hiTail) == null)
                                    hi = p;
                                else
                                    hiTail.next = p;
                                hiTail = p;
                                ++hc;
                            }
                        }
                        // 如果一分为二后,节点数少于 6,那么将红黑树转换回链表
                        ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) :
                        (hc != 0) ? new TreeBin<K,V>(lo) : t;
                        hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) :
                        (lc != 0) ? new TreeBin<K,V>(hi) : t;
                      // 新增参与运算位为0的链表放在新数组的位置 i
                        setTabAt(nextTab, i, ln);
                       // 新增参与运算位为1的链表放在新数组的位置 i + n
                        setTabAt(nextTab, i + n, hn);
                        // 将原数组该位置处设置为 fwd,代表该位置已经处理完毕,
                        //    其他线程一旦看到该位置的 hash 值为 MOVED,就不会进行迁移了
                        setTabAt(tab, i, fwd);
                        // advance 设置为 true,代表该位置已经迁移完毕
                        advance = true;
                    }
                }
            }
        }
    }
}

实际上哈希桶中的元素对应扩容后数组的位置计算和HashMap是一样的,根据新增参与运算位为0,还是为1进行分组,为0还在原位置,为1的节点位置为原位置 + 原数组容量。具体解释可以参考JDK8的HashMap扩容部分。

transfer()小结

  1. 根据CPU计算stride(步长),可以理解为一个线程可以迁移stride个桶的数据。
  2. 若nextTab为null,则说明是第一个执行扩容操作的线程,会初始化一个容量为原数组两倍的新数组,并确定从哪里开始迁移。transferIndex = n,从原数组最后开始迁移,从后往前操作。fwd是一个标志,标明此节点正在进行迁移。当其他线程进行操作的时候发现这个位置存放的是fwd就知道正在进行扩容。advance是遍历的确认标志,是否再往前进行遍历,也可以理解为是否接任务。 finishing 是所有桶是否都已迁移完成标志。
  3. 然后从后往前开始迁移,这是一个循环
    1. advance=true,为当前线程分配任务,也就是负责那几个桶的迁移。分配过程中会判断整个迁移过程是否已经完成了。i就是当前线程任务开始的桶位置
    2. i < 0 || i >= n || i + n >= nextn,则说明迁移任务已经完成。n为原数组长度,nextn为新数组长度
    3. 若当前桶为null,不用迁移,直接将标识桶迁移完成的fwt放入桶中。
    4. 若当前桶已经迁移完成,则进入下一轮循环
    5. 接下来就是迁移当前桶。加锁完成,整个迁移的过程和HashMap一样,根据新增参与计算的位是0还是1将该链表拆成两部分。由于n是2的幂次方(所有二进制位中只有一个1),如n=16(0001 0000),第4位为1,那么hash&n后的值第4位只能为0或1。所以可以根据hash&n的结果将所有结点分为两部分。
      1. hash值>=0,当前桶中为链表
        1. 找出最后一段完整的fh&n不变的链表(fn标识hash值),也就是找到链表后面一段新增参与计算的位(这一位的确定根据原数组长度判断)一直不变的连续子链表,这样最后这一段链表就不用重新创建新结点了。
        2. 将链表中的其余部分根据新增参与计算的位为1还是为0分成两部分,插入新数组中。具体插入位置计算参考HashMap的扩容。
        3. 标记当前桶已经迁移完成
      2. hash值<0,当前桶中为红黑树
        1. 按照新增参与计算的位为1还是为0分成两部分,然后插入新数组
        2. 插入前会判断是否需要将红黑树和转化为链表,即节点数小于等于6的转化为链表再插入新数组
        3. 标记当前桶迁移完成
  4. 扩容结束。

参考

ConcurrentHashMap底层详解(图解扩容)(JDK1.8)
关于jdk1.8中ConcurrentHashMap的方方面面

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值