HashMap源码简单分析
HashMap是Java程序员使用频率最高的用于映射(键值对)处理的数据类型。JDK1.8对HashMap底层的实现进行了优化,例如引入红黑树的数据结构和扩容的优化等。本文结合JDK1.7和JDK1.8的区别,探讨HashMap的结构实现和功能原理。
引言:如何确定哈希桶数组索引位置
定位到哈希桶数组的位置是关键所在。HashMap的数据结构是数组和链表/红黑树的结合,我们希望这个HashMap里面的元素位置尽量分布均匀,就可以优化查询的效率。HashMap定位数组索引位置,直接决定了hash方法的离散性能。本质上就是三步:取key的hashCode值、高位运算、取模运算。
- 对于任意给定的对象,只要它的hashCode()返回值相同,hash所计算得到值总是相同的。一般算法是利用hash值对数组长度取模运算,元素的分布相对来说是比较均匀的。但是,模运算的消耗还是比较大的,在HashMap中:调用indexFor来计算该对象应该保存在table数组的哪个索引处。
- indexFor方法非常巧妙,它通过h & (table.length -1)来得到该对象的保存位,而HashMap底层数组的长度总是2的n次方,这是HashMap在速度上的优化。当length总是2的n次方时,h& (length-1)运算的结果等价于对length取模,也就是h%length,但是&比%具有更高的效率。
- 在JDK1.8的实现中,优化了高位运算的算法,通过hashCode()的高16位异或低16位实现的:(h = k.hashCode()) ^ (h >>> 16),主要是从速度、功效、质量来考虑的,这么做可以在数组table的length比较小的时候,也能保证考虑到高低Bit都参与到Hash的计算中,同时不会有太大的开销。
- 注:右位移16位,将高半区和低半区做异或,是为了混合原始哈希码的高位和低位,增加低位的随机性,同时混合后的低位掺杂了高位的部分特征,高位的信息也被保留下来。
static final int hash(Object key) { //jdk1.8 和 jdk1.7
int h;
// h = key.hashCode() 为第一步 取hashCode值 jdk1.7
// h ^ (h >>> 16) 为第二步 高位参与运算 jdk1.7
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); //jdk1.8
}
static int indexFor(int h, int length) { //jdk1.7的源码,jdk1.8没有这个方法,但是实现原理一样的
return h & (length-1); //第三步 取模运算
}
1、HashMap存取值的原理
1、存值分析:
- jdk1.7存值分析
public V put(K key, V value) {
//HashMap允许存储null键,存储在数组的0索引位置
if (key == null)
return putForNullKey(value);
//内部通过一个扰乱算法获得一个hash值,用于计算数组索引
int hash = hash(key);
//计算数组索引
int i = indexFor(hash, table.length);
//判断是否是重复键
for (Entry<K,V> e = table[i]; e != null; e = e.next) {
Object k;
if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
V oldValue = e.value;
e.value = value;
e.recordAccess(this);
return oldValue;
}
}
modCount++;
//添加元素
addEntry(hash, key, value, i);
return null;
}
void addEntry(int hash, K key, V value, int bucketIndex) {
//元素个数大于阈值,同时当前索引位有值,就会执行扩容操作
if ((size >= threshold) && (null != table[bucketIndex])) {
//2倍扩容
resize(2 * table.length);
hash = (null != key) ? hash(key) : 0;
//重新计算索引位置
bucketIndex = indexFor(hash, table.length);
}
//基于键值创建Entry节点,并以头插法存入对应位置
createEntry(hash, key, value, bucketIndex);
}
-
新建 HashMap之后,不会直接创建数组,而是等 put 数据时才会创建数组。
-
put 数据时,如果是第一次向这个集合中put数据,会先创建一个长度为16 的一维数组(会先调用resize扩容),然后存储数据。判断插入的Key是否为null,如果为null,将元素放在数组索引为0的位置。不为null,计算出此key的哈希值,得到该数据在数组上索引位置。
- 如果当前位置元素存在元素,hash值等于传过来的hash,并且key值也相等,覆盖当前节点
- 否则调用addEntry()采用头插法插入
-
addEntry():首先判断是否需要扩容:
- 存放新值的时候当前已有元素的个数必须大于等于阈值
- 当前索引位有值
-
如果满足上面两个条件,那么就扩容,容量为原来的两倍。
-
扩容过程中会将原来的数据,放入到新的数组中,但是会重新计算hash值进行分配
-
jdk1.8存值分析
public V put(K key, V value) {
//hash(key)计算hash值,用于计算索引
return putVal(hash(key), key, value, false, true);
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
//完成初始化容器
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
//得到的索引位没有元素,直接存入
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
//索引位有元素
Node<K,V> e; K k;
//重复键
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
//红黑树节点
else if (p instanceof TreeNode)
//入树
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
//遍历链表依次比较键
for (int binCount = 0; ; ++binCount) {
//没有重复键
if ((e = p.next) == null) {
//尾插法,添加元素,形成单向链表
p.next = newNode(hash, key, value, null);
//树化
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
//有重复键
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
//键重复,更新值
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
//容量超过阈值,扩容
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
- 新建 HashMap之后,不会直接创建数组,而是等 put 数据时才会创建数组。
- put 数据时,如果是第一次向这个集合中put数据,会先创建一个长度为16 的一维数组(会先调用resize扩容)。
- 计算出此key的哈希值,得到该数据在数组上索引位置,如果索引位置为空,直接新建节点添加
- 如果当前位置元素存在元素,判断首个元素hash值是否等于传过来的hash,并且key值也相等[这里的相等指的是hashCode以及equals],覆盖当前value
- 如果key不相等,则判断是否是红黑树类型,如果是红黑树,则交给红黑树追加此元素。
- 如果key既不相等,也不是红黑树,表明为链表。
- 遍历链表,若发现key已经存在直接覆盖value即可。
- 否则在链表尾部进行添加操作。插入完成后,判断是否需要树化,如果链表的长度大于等于8调用treeifyBin方法,进行扩容或者转换为红黑树[数组长度大于64 ]。
- 最后判断是否需要扩容,判断实际存在的键值对数量size是否超多了最大容量threshold,如果超过,进行扩容。
2、取值分析
- jdk1.7取值
public V get(Object key) {
//取空键对应的值
if (key == null)
return getForNullKey();
//取非空键对应的值
Entry<K,V> entry = getEntry(key);
return null == entry ? null : entry.getValue();
}
final Entry<K,V> getEntry(Object key) {
int hash = (key == null) ? 0 : hash(key);
//遍历链表获取值
for (Entry<K,V> e = table[indexFor(hash, table.length)];
e != null;
e = e.next) {
Object k;
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
}
return null;
}
-
如果key为null,取空键对应的值。
-
key不为null,根据key的hashcode算出元素在数组中的下标,遍历Entry对象链表,直到key相同的元素为止。 (e.hash == hash &&((k = e.key) == key || (key != null && key.equals(k))))
-
jdk1.8取值分析
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
//检查头部元素是否是要找的元素
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
if ((e = first.next) != null) {
//红黑树查找
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
do {
//链表查找
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
- 如果key为null,取空键对应的值。
- key不为null,根据key的hashcode算出元素在数组中的下标
- 检查头部元素是否是要找的元素,是则返回。否则如果是红黑树,在树中进行查找,或者在链表中进行遍历,直到key相同的元素为止。
2、HashMap如何防止碰撞
解决hash碰撞的方式有很多,比如开放地址法,重哈希,链地址法,公共溢出区等等。
HashMap中防止碰撞的方式主要有两个:哈希值扰动+链地址法(当扰动后,还是hash碰撞,使用链表/红黑树存储元素)
- jdk1.7扰动
final int hash(Object k) {
int h = 0;
h ^= k.hashCode();
//充分利用高低位
h ^= (h >>> 20) ^ (h >>> 12);
return h ^ (h >>> 7) ^ (h >>> 4);
}
01100011 00001110 11000110 00011001
00000000 01101010 11001100 00011001
- jdk1.8扰动
static final int hash(Object key) {
int h;
//充分利用高低位
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
3、HashMap容量取值问题
- jdk1.7默认容量
public HashMap() {
//默认容量16
this(DEFAULT_INITIAL_CAPACITY, DEFAULT_LOAD_FACTOR);
}
- jdk1.7自定义容量
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
//超过最大容纳量,取最大容量
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
//负载因子容错处理
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
//通过1左移运算,找到一个大于/等于自定义容量的最小2的幂次方数
int capacity = 1;
while (capacity < initialCapacity)
capacity <<= 1;
this.loadFactor = loadFactor;
threshold = (int)Math.min(capacity * loadFactor, MAXIMUM_CAPACITY + 1);
//基于容量,创建数组
table = new Entry[capacity];
useAltHashing = sun.misc.VM.isBooted() &&
(capacity >= Holder.ALTERNATIVE_HASHING_THRESHOLD);
init();
}
int capacity = 1;
while (capacity < initialCapacity)
capacity <<= 1;
例:
假设自定义容量取值为10
1<10
1进行左移运算
0000 0000 0000 0000 0000 0000 0000 0001 -- 新容量等于1
<<
0000 0000 0000 0000 0000 0000 0000 0010 -- 新容量等于2
2<10
2进行左移运算
0000 0000 0000 0000 0000 0000 0000 0010
<<
0000 0000 0000 0000 0000 0000 0000 0100 -- 新容量等于4
4<10
4进行左移运算
0000 0000 0000 0000 0000 0000 0000 0100
<<
0000 0000 0000 0000 0000 0000 0000 1000 -- 新容量等于8
8<10
8进行左移运算
0000 0000 0000 0000 0000 0000 0000 1000
<<
0000 0000 0000 0000 0000 0000 0001 0000 -- 新容量等于16
为什么容量必须是2的幂次方数呢?
① 以上那些2的幂次方数有一个特点,高位为1,后续全部为0,这样的数减一,就会变成刚才为1的位置为0,后续所有值都为1,这样减一之后的数,和任何数进行与运算,得到的结果,永远是0-2的幂次方减一,正好符合数组角标的范围。
② 同时减一后,一定是一个奇数,末位一定是1,那么和其他数进行与运算后,得到的结果可能是奇数,也可能是偶数,那么可以充分利用数组的容量。
③ 2的幂次方数减一后,低位都是1,这样数组的索引位都有可能存入元素,如果低位不都是1,就会导致有些数组的索引位永远空缺,不利于数组的充分利用
④ 便于扩容时,重新定位元素的索引位,我们知道扩容的原则是原来数组的2倍,那么扩容后,数组容量还是一个2的幂次方数,原数组中的元素在新数组中,要么在原始索引位,要么在原始索引位+扩容值的位置,避免了重新hash的效率问题
- jdk1.8容量赋值
注意,jdk1.8的容量计算动作,在resize()扩容方法中完成。
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
- jdk1.8中容量计算:
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
假设初始容量设置为10:
n = 10-1
0000 0000 0000 0000 0000 0000 0000 1001 //9
n右移1位
0000 0000 0000 0000 0000 0000 0000 0100 //4
| 0000 0000 0000 0000 0000 0000 0000 1001 //9
-----------------------------------------------------
0000 0000 0000 0000 0000 0000 0000 1101 //13
n右移2位
0000 0000 0000 0000 0000 0000 0000 0011
| 0000 0000 0000 0000 0000 0000 0000 1101
---------------------------------------------------
0000 0000 0000 0000 0000 0000 0000 1111 //15
n右移4位
0000 0000 0000 0000 0000 0000 0000 0000
| 0000 0000 0000 0000 0000 0000 0000 1111
----------------------------------------------------
0000 0000 0000 0000 0000 0000 0000 1111 //15
通过一系列右移+或运算后,能够将初始值减一得到的值,后面的所有0变成1,最终返回的是得到的值+1的结果作为容量,正好就是大于等于给定容量的2的幂次方数
4、HashMap数据结构(1.7和1.8对比)
- jdk1.7数据结构:数组+单向链表
void createEntry(int hash, K key, V value, int bucketIndex) {
//取出索引位置的元素
Entry<K,V> e = table[bucketIndex];
//将新的元素放置到索引位,同时将原来的作为新元素的下一个保存,形成单向链表
//头插法
table[bucketIndex] = new Entry<>(hash, key, value, e);
size++;
}
- jdk1.8数据结构:数组+单向链表+红黑树+双向链表
数组和单向链表的结构,在这里就不再赘述了,前面存取元素的过程中已经分析
这里我们来看下红黑树和双向链表结构
//当添加元素后,单向链表长度达到8个会执行该方法
final void treeifyBin(Node<K,V>[] tab, int hash) {
int n, index; Node<K,V> e;
//如果此时数组长度小于64,会通过扩容数组的方式,来避免单向链表过长
if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
resize();
//通过转成红黑树,来避免单向链表过长
else if ((e = tab[index = (n - 1) & hash]) != null) {
TreeNode<K,V> hd = null, tl = null;
do {
//把所有Node节点,转成TreeNode节点,并形成双向链表
TreeNode<K,V> p = replacementTreeNode(e, null);
if (tl == null)
hd = p;
else {
p.prev = tl;
tl.next = p;
}
tl = p;
} while ((e = e.next) != null);
if ((tab[index] = hd) != null)
//将双向链表中的元素形成红黑树结构
hd.treeify(tab);
}
}
//当添加元素时,对应的索引位置为TreeNode节点,会执行该方法
final TreeNode<K,V> putTreeVal(HashMap<K,V> map, Node<K,V>[] tab,
int h, K k, V v) {
Class<?> kc = null;
boolean searched = false;
TreeNode<K,V> root = (parent != null) ? root() : this;
for (TreeNode<K,V> p = root;;) {
int dir, ph; K pk;
if ((ph = p.hash) > h)
dir = -1;
else if (ph < h)
dir = 1;
else if ((pk = p.key) == k || (k != null && k.equals(pk)))
return p;
else if ((kc == null &&
(kc = comparableClassFor(k)) == null) ||
(dir = compareComparables(kc, k, pk)) == 0) {
if (!searched) {
TreeNode<K,V> q, ch;
searched = true;
if (((ch = p.left) != null &&
(q = ch.find(h, k, kc)) != null) ||
((ch = p.right) != null &&
(q = ch.find(h, k, kc)) != null))
return q;
}
dir = tieBreakOrder(k, pk);
}
//以上逻辑,就是在遍历红黑树,决定新元素放置的位置
TreeNode<K,V> xp = p;
if ((p = (dir <= 0) ? p.left : p.right) == null) {
Node<K,V> xpn = xp.next;
TreeNode<K,V> x = map.newTreeNode(h, k, v, xpn);
//找到新元素放置的位置,并将其添加进红黑树结构
if (dir <= 0)
xp.left = x;
else
xp.right = x;
//同时维护双向链表结构
xp.next = x;
x.parent = x.prev = xp;
if (xpn != null)
((TreeNode<K,V>)xpn).prev = x;
//通过变色+旋转达到红黑树的自平衡
moveRootToFront(tab, balanceInsertion(root, x));
return null;
}
}
}
你可能会有疑问,为什么在维护红黑树的同时,需要再维护一种双向链表的结构呢?其实主要是为了扩容方便的
5、HashMap扩容时机及扩容机制
- jdk1.7扩容:先扩容,在添加值
void addEntry(int hash, K key, V value, int bucketIndex) {
//当元素个数达到了扩容阈值,同时元素该放置的位置有元素时,会执行扩容
if ((size >= threshold) && (null != table[bucketIndex])) {
//扩容为原来的两倍
resize(2 * table.length);
hash = (null != key) ? hash(key) : 0;
bucketIndex = indexFor(hash, table.length);
}
//扩容之后,在将新元素添加进集合
createEntry(hash, key, value, bucketIndex);
}
void resize(int newCapacity) {
Entry[] oldTable = table;
int oldCapacity = oldTable.length;
//达到最大容量,不扩容
if (oldCapacity == MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return;
}
//根据新容量创建数组
Entry[] newTable = new Entry[newCapacity];
boolean oldAltHashing = useAltHashing;
useAltHashing |= sun.misc.VM.isBooted() &&
(newCapacity >= Holder.ALTERNATIVE_HASHING_THRESHOLD);
//计算是否需要重新计算hash
boolean rehash = oldAltHashing ^ useAltHashing;
//将旧数组中的元素迁移到新的数组中
transfer(newTable, rehash);
//保存新数组
table = newTable;
threshold = (int)Math.min(newCapacity * loadFactor, MAXIMUM_CAPACITY + 1);
}
void transfer(Entry[] newTable, boolean rehash) {
int newCapacity = newTable.length;
for (Entry<K,V> e : table) {
while(null != e) {
//记录遍历到的元素的下一个元素
Entry<K,V> next = e.next;
if (rehash) {
e.hash = null == e.key ? 0 : hash(e.key);
}
//计算新数组的角标位置
int i = indexFor(e.hash, newCapacity);
//把当前元素的下一个改为新数组对应位置的元素--头插法
e.next = newTable[i];
//将当前元素放置在数组对应索引位置
newTable[i] = e;
//再次迁移下一个元素
e = next;
}
}
}
- jdk1.8扩容:先添加值,再扩容
//元素个数,达到扩容阈值,就扩容
//这个方法前半部分初始化数组的逻辑之前已经分析过了
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
//数组容量达到最大值,不扩容
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
//新的数组容量为原来的2倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
//数组角标位置只有一个元素,直接将数据迁移到新数组
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
//数组角标位置为TreeNode,迁移红黑树数据
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
//迁移单向链表数据
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
//先遍历整个单向链表,元素放置的位置,要么是原来的位置,要么是原来位置+扩容容量的位置
do {
next = e.next;
//放置在原来角标位置的元素
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
//尾插法
loTail.next = e;
loTail = e;
}
//放置在原来角标+扩容容量 位置的元素
else {
if (hiTail == null)
hiHead = e;
else
//尾插法
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
//将放置在原角标位的元素存入数组
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
//将放置在新角标位的元素存入数组
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
红黑树数据的迁移
final void split(HashMap<K,V> map, Node<K,V>[] tab, int index, int bit) {
TreeNode<K,V> b = this;
// Relink into lo and hi lists, preserving order
TreeNode<K,V> loHead = null, loTail = null;
TreeNode<K,V> hiHead = null, hiTail = null;
int lc = 0, hc = 0;
//通过遍历双向链表,实现数据迁移
for (TreeNode<K,V> e = b, next; e != null; e = next) {
next = (TreeNode<K,V>)e.next;
e.next = null;
//原角标位置
if ((e.hash & bit) == 0) {
//记录前一个
if ((e.prev = loTail) == null)
loHead = e;
else
//记录下一个 -- 尾插法
loTail.next = e;
loTail = e;
//该标记累计,用于判断是否需要转会单向链表
++lc;
}
//原角标+扩容容量 位置
else {
//记录前一个
if ((e.prev = hiTail) == null)
hiHead = e;
else
//记录下一个 -- 尾插法
hiTail.next = e;
hiTail = e;
//该标记累计,用于判断是否需要转会单向链表
++hc;
}
}
if (loHead != null) {
//元素个数小于等于6,转成单向链表
if (lc <= UNTREEIFY_THRESHOLD)
tab[index] = loHead.untreeify(map);
else {
//存入新的数组
tab[index] = loHead;
if (hiHead != null) // (else is already treeified)
//树化
loHead.treeify(tab);
}
}
if (hiHead != null) {
//元素个数小于等于6,转成单向链表
if (hc <= UNTREEIFY_THRESHOLD)
tab[index + bit] = hiHead.untreeify(map);
else {
//存入新的数组
tab[index + bit] = hiHead;
if (loHead != null)
//树化
hiHead.treeify(tab);
}
}
}
//将红黑树转成单向链表
final Node<K,V> untreeify(HashMap<K,V> map) {
Node<K,V> hd = null, tl = null;
for (Node<K,V> q = this; q != null; q = q.next) {
Node<K,V> p = map.replacementNode(q, null);
if (tl == null)
hd = p;
else
//尾插法,形成单向链表
tl.next = p;
tl = p;
}
return hd;
}
6、多线程下HashMap扩容的问题(1.7和1.8对比)
-
jdk1.7,多线程扩容情况下,头插法会导致循环引用,1.8已经改成尾插法
-
jdk1.8,多线程环境下,会导致数据丢失问题
// 添加元素时,会有数据覆盖丢失数据
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
//此处,如果多个线程向同一个位置存入元素,会有值覆盖的问题,导致数丢失
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
//下面代码省略
// 扩容时,迁移数据的情况下,会有数据覆盖丢失的问题
// 多线程环境下,给同一个数组的相同位置赋值,会有数据覆盖的风险
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead; //将原始索引位的数据迁移到新数组
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead; //将新索引位的数据迁移到新数组
}
参考
JDK1.7&JDK1.8 源码
https://zhuanlan.zhihu.com/p/21673805
https://space.bilibili.com/488677881?from=search&seid=3563449105061459709
本文详细分析HashMap在JDK1.7和1.8版本中的实现差异,包括哈希计算、索引定位、碰撞处理、容量调整与数据结构变化,以及多线程扩容问题。
1171

被折叠的 条评论
为什么被折叠?



