UML类图:

基本简介:
- 底层的数据结构是数组,数组的元素类型是链表或者红黑树。
- 元素的添加可能会触发数组的扩容,会使元素重新哈希放入桶中,效率比较低。
- 元素在不扩容的情况下添加效率高,查找、删除、修改效果都较高。
- jdk1.8之后当一个桶的元素个数达到阈值之后,会红黑树话,当降低到某个阈值之后又回链表话。
底层数据结构图:链表结点类和红黑树结点类在下面会有。

代码如下:介绍部分重要的:
public class HashMap<K,V> extends AbstractMap<K,V>
implements Map<K,V>, Cloneable, Serializable {
private static final long serialVersionUID = 362498820763181265L;
//默认容量
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
//扩容到最大容量的阈值
static final int MAXIMUM_CAPACITY = 1 << 30;
//默认负载因子。类变量
static final float DEFAULT_LOAD_FACTOR = 0.75f;
//树化的阈值,当一个桶的元素个数达到8个或以上时,会将链表转成红黑树
static final int TREEIFY_THRESHOLD = 8;
//链表话,当删除元素导致一个桶的元素小于等于6时,就会将红黑树链表化
static final int UNTREEIFY_THRESHOLD = 6;
//是否进行树化成功的阈值,也就是当table的长度<64时,不会树化,而是扩容。
static final int MIN_TREEIFY_CAPACITY = 64;
//这个就是hashmap的底层数据结构。
transient Node<K,V>[] table;
//一个set集合,里面记录着hashmap的所有键值对。hashmap的遍历方法之一。
transient Set<Map.Entry<K,V>> entrySet;
//hashmap的元素个数
transient int size;
transient int modCount;
//hashmap扩容的阈值。后面会讲
int threshold;
//该hashmap的负载因子。会影响扩容时机,后面会讲。
final float loadFactor;
//这个是hashmap的底层数据结构,也就是数组中的元素类型,链表的节点,存储着一个键值对。
static class Node<K,V> implements Map.Entry<K,V> {
//该节点的hash值。
final int hash;
//元素的key值
final K key;
//元素的value值
V value;
//指向链表下一个节点的引用
Node<K,V> next;
Node(int hash, K key, V value, Node<K,V> next) {
this.hash = hash;
this.key = key;
this.value = value;
this.next = next;
}
public final K getKey() { return key; }
public final V getValue() { return value; }
public final String toString() { return key + "=" + value; }
//计算该节点的hashcode,key的hashcode^value的hashcode
public final int hashCode() {
return Objects.hashCode(key) ^ Objects.hashCode(value);
}
public final V setValue(V newValue) {
V oldValue = value;
value = newValue;
return oldValue;
}
public final boolean equals(Object o) {
if (o == this)
return true;
if (o instanceof Map.Entry) {
Map.Entry<?,?> e = (Map.Entry<?,?>)o;
if (Objects.equals(key, e.getKey()) &&
Objects.equals(value, e.getValue()))
return true;
}
return false;
}
}
/**
*红黑树,是hashmap的静态内部类。还有很多方法没有列出。详细细节可以查看相应的数据结构知识。
**/
static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {
TreeNode<K,V> parent; // red-black tree links
TreeNode<K,V> left;
TreeNode<K,V> right;
TreeNode<K,V> prev; // needed to unlink next upon deletion
boolean red;
TreeNode(int hash, K key, V val, Node<K,V> next) {
super(hash, key, val, next);
}
}
/**
* 计算key的hash值,当key为null时的hash值是0,所以总会在hashmap的第一个。
* 把key的hashCode再与key的hashCode的高16为异或,得到更加分布均匀的hash值。
**/
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
/////构造方法始//////
/**
*initialCapacity 指定初始容量
*loadFactor 指定负载因子
*这个构造器会初始化阈值threshold 跟负载因子。
**
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
//负载因子小于等于0或者is not a number的情况下就抛异常
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
//设置负载因子
this.loadFactor = loadFactor;
//计算阈值,计算的结果是initialCapacity-1后的二进制位数全部置1.详细看下面。
this.threshold = tableSizeFor(initialCapacity);
}
static final int tableSizeFor(int cap) {
//先将容量-1,比如14-1 = 13. 二进制为00001101,然后通过下面的或运算后会得到1111 也就是15.
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
//当经过计算后的n小于0(n的初始值<0的情况下),就返回1。
//n计算后等于15 时 返回 n+1=16
//n计算后大于MAXIMUM_CAPACITY,就返回MAXIMUM_CAPACITY。
//也就是返回的结果必定是2的幂。
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
public HashMap(int initialCapacity) {
//这个构造方法会初始化阈值和负载因子
//指定初始化容量,使用默认负载因子0.75。
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
public HashMap() {
//使用默认负载因子
//这个构造器只会初始化负载因子
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
/**
*用一个map来初始化它,使用默认负载因子0.75,这个是创建对象时就初始化table,上面三个
*把table的初始化延时到了第一次添加元素。
*该构造器会初始化负载因子,如果m不是空map的话会初始化table,阈值,负载因子。如果是空m,跟默认构造器一样。
**/
public HashMap(Map<? extends K, ? extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
//批量插入元素,后面讲
putMapEntries(m, false);
}
/**
*批量插入元素
*evict //目前没什么用,因为使用它的方法是一个空方法。
*总逻辑:
*1. 判断需要插入的集合是不是空集合,空集合的话就不进行动作返回,非空就进行下一步操作。
*2.如果该hashmap还没被初始化,就先初始化扩容阈值。如果已经初始化了,并且插入的元素个数大于当前阈值,就进行扩容。
*3.遍历hashmap m ,进行插入。
**/
final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
//获取集合map的元素个数。
int s = m.size();
if (s > 0) {
//非空集合进入这里
if (table == null) { // pre-size
//第一次添加元素进入这里初始化扩容阈值threshold
//计算扩容的阈值:
//1. 先通过 ft = 集合元素个数/负载因子+1,然后取整。
float ft = ((float)s / loadFactor) + 1.0F;
int t = ((ft < (float)MAXIMUM_CAPACITY) ?
(int)ft : MAXIMUM_CAPACITY);
if (t > threshold)
//当计算出来的值大于当前阈值,就计算新的阈值。
threshold = tableSizeFor(t);
}
else if (s > threshold)
//已经初始化并且批量插入的元素的个数大于阈值时,就进行扩容。
resize();
for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
//迭代map m 插入。
K key = e.getKey();
V value = e.getValue();
//真正的插入,下面讲
putVal(//首先根据key计算出该key的哈希值 hash(key), key, value, false, evict);
}
}
/**
*真正的插入动作
*hash :进过hash(key)方法计算出来的哈希值
*onlyIfAbsent:是否键不存在时才进行插入,就是是否覆盖已有键的值。
*总逻辑:
*1. 如果table为空,也就是没有初始化,就对table进行初始化。
*2. 如果经过计算下标计算到的桶还没有元素,就直接根据key/value创建一个节点并赋值给该桶。
*3. 如果计算到的桶已经有元素了就进入这段:
*a)如果key的值跟该桶的头结点相等,直接把该节点赋值给桶的头结点。
如果不想等并且该桶的节点是红黑树的节点,就使用红黑树的插入方法。会涉及链表化。
如果头结点跟key不相等并且桶的节点是链表的节点,就使用链表的添加方法。会涉及树化。
*4. 如果键已经存在就根据onlyIfAbsent参数或者oldValue来判断是否要修改存在key的值。
如果key不存在就插入新的key/value值。
**/
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
//定义指向table成员变量的引用。
Node<K,V>[] tab;
//
Node<K,V> p;
int n, i; //n是当前table数组的长度,i是要把该元素插入到的数组的下标。
if ((tab = table // 将tab赋值) == null || (n = tab.length //将n赋值) == 0)
//如果table为空,或者table长度为0时进入,初始化tab和初始化n。
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash //根据key计算下标并赋值给i] //将tab[i]赋值给p) == null)
//如果该数组的下标的值为空,也就是该桶还没有被元素占用时进入这里,直接就创建一个node并赋值给给数组下标的桶。
tab[i] = newNode(hash, key, value, null);
else {
//该下标的数组值table[i]也就是p为非空时进入这里,也就是目前hash起了冲突,要通过拉链法来解决冲突。
Node<K,V> e;
K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
//判断该桶(p)(可能是链表,可能是红黑树)的头结点跟key是否相等,通过哈希值是否相等并且key对象是否相等判断,如果相等就进入这里直接就把p赋值给e。
//将p赋值给e
e = p;
else if (p instanceof TreeNode)
//如果p是红黑树结构,就使用红黑树的方法进行插入。
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
//不是红黑树结构,头结点也跟key不想等时进入
for (int binCount = 0; ; ++binCount) {
//binCount是计算桶的元素个数
if ((e = p.next) == null) {
//p.next == null时进入这里,也就是该桶的链表已经到了最后
//直接将p.next创建一个新的结点并赋值。
p.next = newNode(hash, key, value, null);
//判断是否需要树化
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
//跳出循环
break;
}
//判断是否存在key,存在就跳出循环
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
//相当于 p = p.next.
p = e;
}
}
if (e != null) { // existing mapping for key
//当e不等于null,也就是key已经存在时进入这里。
V oldValue = e.value;
判断是否要改已存在key的value,原来的元素的value为null或者onlyIfAbsent 为false时覆盖,否则不覆盖
if (!onlyIfAbsent || oldValue == null)
e.value = value;
//空方法
afterNodeAccess(e);
返回旧值
return oldValue;
}
}
//只有key存在时才会走这里,也就是新增key/value才会修改modCount;,修改已存在的key的value值不会修改modCount;
++modCount;
if (++size > threshold)
//当当前元素个数大于阈值,就进行扩容
resize();
//空方法。
afterNodeInsertion(evict);
return null;
}
}
/**
*扩容的方法,也是初始化的方法。hashmap创建时不会立即初始化,而是会把初始化延时到第一次添加元素。
*扩容会修改容量和阈值。分三种大情况,n多小情况。
*1.第一种大情况: 当旧容量大于0,也就是该hashmap对象在之前已经插入过元素已经初始化了:
a) 第一种:当旧容量大于等于MAXIMUM_CAPACITY时,就不扩容了直接返回旧table。阈值设置为int类型的最大值。
b) 第二种:新容量=旧容量*2(这个固定),当新容量小于MAXIMUM_CAPACITY并且旧容量大
于等于DEFAULT_INITIAL_CAPACITY(16)时,新阈值=旧阈值*2。
*2. 第二种大情况:当旧容量小于等于0并且旧阈值大于0时,也就是hashmap对象没有插入过元
素,也就是没有初始化时,但是是使用非默认构造器创建的对象(使用非默认构造器创建时旧阈
值不会等于0)时,新容量=旧阈值。新阈值值=旧阈值*负载因子或者新阈值=int类型最大值。
*3. 第三种大情况:当旧容量小于等于0并且旧阈值小于等于0时,也就是没有初始化,并且是使用默认构造器创建的对象:新容量=默认(16),新阈值=新容量*负载因子=16*0.75=12。
*4. 当符合第一种大情况但是不符合第一种和第二种小情况时:新阈值值=旧阈值*负载因子或者新阈值=int类型最大值。
总结:
1. 当对一个已经初始化的hashmap扩容,新容量=旧容量*2或者不扩容。新阈值=旧阈值*2或者新阈值值=旧阈值*负载因子或者新阈值=int类型最大值。
2. 当对一个没有初始化的hashmap进行扩容,实际上是进行初始化:
a) 使用非默认构造器创建hashmap对象情况下,阈值会不等于0,此时新容量=旧阈值(创建对象时传入的指定容量经过tableSizeFor方式计算的阈值),新阈值值=旧阈值*负载因子或者新阈值=int类型最大值。
b) 使用默认构造器创建hashmap的情况下:新容量=16,新阈值=12。
*/
final Node<K,V>[] resize() {
//创建局部引用变量指向table。
Node<K,V>[] oldTab = table;
//如果没有hashmap没有初始化,旧容量就为0,否则为table.length。
int oldCap = (oldTab == null) ? 0 : oldTab.length;
//旧阈值
int oldThr = threshold;
//声明新容量,新阈值等于0.
int newCap, newThr = 0;
if (oldCap > 0) {
//旧容量大于0,也就是hashmap已经初始化了,进入这里
if (oldCap >= MAXIMUM_CAPACITY) {
//如果旧容量大于等于MAXIMUM_CAPACITY这个容量就把阈值设置为int
的最大值并返回oldTab。也就是不用扩容。
threshold = Integer.MAX_VALUE;
return oldTab;
}
//分支标签a:
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
//旧容量*2小于MAXIMUM_CAPACITY 并且大于16时,新阈值=旧阈值*2。
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
//旧容量大于0并且旧阈值大于0时,新容量=旧阈值,这个是初始化的并且是使用非默认构造器创建的hashmap会进入这里。
newCap = oldThr;
else { // zero initial threshold signifies using defaults
//旧容量大于0并且旧阈值小于等于0时,也就是初始化,新容量=16,新阈值=负载因子*16。使用默认的负载因子时,初始化阈值为12。这个是使用默认构造器创建hashmap时的初始化方式。
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
//新阈值=0进入,这个是使用非默认构造器创建hashmap的初始化或者已经初始化但是不符合分支标签a时也进入这里。
//第一种情况:新容量小于MAXIMUM_CAPACITY 并且 newCap * loadFactor小于MAXIMUM_CAPACITY 时,新阈值=新容量*loadFactor。
//第二种情况:否则新阈值=int的最大值。
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
//数据的迁移,细节就不说明了。
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
/**
*获取key的值
**
public V get(Object key) {
Node<K,V> e;
使用getNode方法获取node对象。
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
//hashmap已经初始化并且key所在的数组下标的元素不为空时进入。
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
//该桶的第一个元素如果跟key相等,就直接返回第一个元素。
return first;
if ((e = first.next) != null) {
//遍历桶查找key。
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
//key不存在。
return null;
}
/**
*删除元素
*/
public V remove(Object key) {
Node<K,V> e;
调用removeNode删除。
return (e = removeNode(hash(key), key, null, false, true)) == null ?
null : e.value;
}
/**
*
*/
final Node<K,V> removeNode(int hash, Object key, Object value,
boolean matchValue, boolean movable) {
Node<K,V>[] tab; Node<K,V> p; int n, index;
if ((tab = table) != null && (n = tab.length) > 0 &&
(p = tab[index = (n - 1) & hash]) != null) {
//hashmap已经初始化并且key所在的桶有元素不为空时进入。
Node<K,V> node = null, e; K k; V v;
//这段if/else是查找key的node并把引用赋值给node变量。
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
//头元素的key是否与要删除key的key相等,相等就直接赋值给p。
node = p;
else if ((e = p.next) != null) {
//头元素不相等就遍历查找遍历查找。
if (p instanceof TreeNode)
//如果桶的节点是红黑树的节点,就用红黑树的查找节点方法。
node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
else {
//链表遍历查抄key
do {
if (e.hash == hash &&
((k = e.key) == key ||
(key != null && key.equals(k)))) {
node = e;
break;
}
p = e;
} while ((e = e.next) != null);
}
}
if (node != null && (!matchValue || (v = node.value) == value ||
(value != null && value.equals(v)))) {
if (node instanceof TreeNode)
((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
else if (node == p)
tab[index] = node.next;
else
p.next = node.next;
++modCount;
--size;
afterNodeRemoval(node);
return node;
}
}
return null;
}
/**
*继承AbstractSet,维护着hashmap的key集合,map.keySet()获取,用于迭代key。
**/
final class KeySet extends AbstractSet<K> {
public final int size() { return size; }
public final void clear() { HashMap.this.clear(); }
public final Iterator<K> iterator() { return new KeyIterator(); }
public final boolean contains(Object o) { return containsKey(o); }
public final boolean remove(Object key) {
return removeNode(hash(key), key, null, false, true) != null;
}
public final Spliterator<K> spliterator() {
return new KeySpliterator<>(HashMap.this, 0, -1, 0, 0);
}
public final void forEach(Consumer<? super K> action) {
Node<K,V>[] tab;
if (action == null)
throw new NullPointerException();
if (size > 0 && (tab = table) != null) {
int mc = modCount;
for (int i = 0; i < tab.length; ++i) {
for (Node<K,V> e = tab[i]; e != null; e = e.next)
action.accept(e.key);
}
if (modCount != mc)
throw new ConcurrentModificationException();
}
}
}
/**
* 继承AbstractCollection,维护hashmap的value集合。map.values()获取,用于迭代值。
*/
final class Values extends AbstractCollection<V> {
public final int size() { return size; }
public final void clear() { HashMap.this.clear(); }
public final Iterator<V> iterator() { return new ValueIterator(); }
public final boolean contains(Object o) { return containsValue(o); }
public final Spliterator<V> spliterator() {
return new ValueSpliterator<>(HashMap.this, 0, -1, 0, 0);
}
public final void forEach(Consumer<? super V> action) {
Node<K,V>[] tab;
if (action == null)
throw new NullPointerException();
if (size > 0 && (tab = table) != null) {
int mc = modCount;
for (int i = 0; i < tab.length; ++i) {
for (Node<K,V> e = tab[i]; e != null; e = e.next)
action.accept(e.value);
}
if (modCount != mc)
throw new ConcurrentModificationException();
}
}
}
/**
* 继承自AbstractSet。维护hashmap的元素集合,Map.Entry对象。
* 可以通过hashmap.entrySet()方法获取该hashmap对象的元素集合进行迭代。
**/
final class EntrySet extends AbstractSet<Map.Entry<K,V>> {
public final int size() { return size; }
public final void clear() { HashMap.this.clear(); }
public final Iterator<Map.Entry<K,V>> iterator() {
return new EntryIterator();
}
public final boolean contains(Object o) {
if (!(o instanceof Map.Entry))
return false;
Map.Entry<?,?> e = (Map.Entry<?,?>) o;
Object key = e.getKey();
Node<K,V> candidate = getNode(hash(key), key);
return candidate != null && candidate.equals(e);
}
public final boolean remove(Object o) {
if (o instanceof Map.Entry) {
Map.Entry<?,?> e = (Map.Entry<?,?>) o;
Object key = e.getKey();
Object value = e.getValue();
return removeNode(hash(key), key, value, true, true) != null;
}
return false;
}
public final Spliterator<Map.Entry<K,V>> spliterator() {
return new EntrySpliterator<>(HashMap.this, 0, -1, 0, 0);
}
public final void forEach(Consumer<? super Map.Entry<K,V>> action) {
Node<K,V>[] tab;
if (action == null)
throw new NullPointerException();
if (size > 0 && (tab = table) != null) {
int mc = modCount;
for (int i = 0; i < tab.length; ++i) {
for (Node<K,V> e = tab[i]; e != null; e = e.next)
action.accept(e);
}
if (modCount != mc)
throw new ConcurrentModificationException();
}
}
}
/**
* 判断某个value值是否存在,遍历桶又遍历链表或者红黑树,所以效率不高。
*/
public boolean containsValue(Object value) {
Node<K,V>[] tab; V v;
if ((tab = table) != null && size > 0) {
for (int i = 0; i < tab.length; ++i) {
for (Node<K,V> e = tab[i]; e != null; e = e.next) {
if ((v = e.value) == value ||
(value != null && value.equals(v)))
return true;
}
}
}
return false;
}
本文详细解析了HashMap的底层实现,包括其数据结构、扩容机制、树化与链表化过程,以及核心方法如put、get、remove的实现原理。
1487

被折叠的 条评论
为什么被折叠?



