hashmap是什么?
hashmap是一种存储键值对的数据结构,由数组+链表/红黑树构成。
hashmap的优点,即为什么要用hashmap
一般来说,hashmap的效率是很高的,插入、删除、查找的时间复杂度都是1,当内部使用链表存储冲突的节点时,复杂度为n,当使用红黑树树存储冲突的节点时,复杂度为logn
hashmap原理之一,定位桶的位置,即hash方法
在存储元素之前,首先要定位元素应该存储到数组中的那个位置,存储过程一共分为三步:
- 计算key的hashcode
- 将hashcode无符号右移16位,相当于hashcode的高16位和低16位互换
- 用
tab[i = (n - 1) & hash]
计算要插入到数组中的位置
定位数组中的位置这个过程直接用hahscode对数组长度取余就能定位到,为什么要麻烦的进行上面的三步?当然是为了性能考虑
关于计算元素在数组中的位置主要有这么几个问题?
为什么hashmap的大小必须是2的倍数?
答:这样是为了使用位运算代替取模运算计算元素存入数组中的位置,因为只有hashmap的大小为2的倍数时,(n - 1) & hash
才等价于hash % (n-1)
为什么要将hashcode的高16位参与运算?
答:为了让元素散列的更加分散,试想直接散列的情况,因为hashcode是二进制32位,而hashmap的数组初始大小为16,转化为二进制才4位,也就是说如果两个hashcode的低4位相同,则他们一定会被散列到相同的位置发生hash冲突,因为异或运算时,只有低4位参与了运算。所以为了散列的更加分散,使用(h = key.hashCode()) ^ (h >>> 16)
这个操作将高hashcode的高16位和低16位异或,此时即使两个hashcode的低4位相同,但是高16不同,所以经过异或之后这两个hashcode会被散列到不同位置,不会冲突。
为什么确定元素在数组中的位置要用tab[i = (n - 1) & hash]
,而不是直接取余?
答:为了效率考虑,异或的效率比取余高很多
以下是计算要存储的元素在数组中位置的源码
static final int hash(Object key) {
int h;
//hahscode本身是二进制32位的,让高16位参与运算,避免只通过低16位判断散列位置
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
hashmap原理之二,put方法
put方法是在定位好元素位置之后存储元素的方法,put的过程需要判断元素是否已存在,如何存入链表和红黑树,如何将链表转化为红黑树等问题
put方法是调用putVal方法的,直接看putVal方法的源码
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
//若数组为null或数组长度为0,初始化数组
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
//计算桶的位置,若为null,则直接插入
//p为桶位置的已存在元素
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
//若桶位置有元素,即发生hash冲突
else {
Node<K,V> e; K k;
//if中的三个判断条件为:
//(两个元素的hash值相等&&(两个元素的key的引用地址相同||两个元素的key的引用地址不同,但是不同的地址中存储的是相同的key))
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
//相等则替换
e = p;
//若不相等,判断已存在元素是否是红黑树节点
else if (p instanceof TreeNode)
//执行红黑树插入
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
//否则,已存在元素是链表节点
else {
//遍历链表
for (int binCount = 0; ; ++binCount) {
//是否已遍历到链表尾
if ((e = p.next) == null) {
//遍历到尾部之后,将新元素追加到链表尾
p.next = newNode(hash, key, value, null);
/*
此时,若需要转化为红黑树,则binCount = 7,但是实际上链表中已经存储了9个节点了,即binCount是从0开始计数的,
binCount等于7时,链表中实际节点为8个,加上上一行新插入的一共是9个。也就是先插入,再转换
*/
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
//遍历过程中发现已存在元素
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
//遍历指针后移一位
p = e;
}
}
//以上的所有if else中,当已存在元素时,都会给e赋值,如果这一步判断e不为空,则表明元素已存在,在这一步进行替换操作
if (e != null) { // existing mapping for key
//记录旧元素的value
V oldValue = e.value;
//if中的条件为(可以改变value的值||旧值为空)
//if的逻辑为: 可以改变已存在元素的value值时,改变value的值
// 不可以改变已存在元素的value值,但是旧值为null时,改变value的值
if (!onlyIfAbsent || oldValue == null)
e.value = value;
//LinkedHashMap会实现这个方法以确保链表节点的有序性
afterNodeAccess(e);
//因为这里是替换节点,所以hashmap中元素的多少不会改变,所以不用考虑扩容,直接返回
return oldValue;
}
}
//如果没有在两行之前返回,说明是插入节点的形式,则需要判断hashmap中的节点数是否已经超过hashmap的容量,若是则进行扩容操作
++modCount;
if (++size > threshold)
resize();
//LinkedHashMap会实现这个方法
afterNodeInsertion(evict);
return null;
}
hashmap原理之三,扩容方法
当hashmap的容量超过阈值时,也就hashmap中的元素个数超过数组长度*负载因子时,需要将数组扩容为2倍,且需要将原数组中的元素复制过去。那么就存在几个问题。如何保证扩容效率?如何将元素重新散列?
在查看扩容机制的源码之前,先要了解hashmap是如何保证每次扩容时数组长度都为2的倍数的,主要是tableSizeFor
这个函数:
//参数为0到2^31之间的任何整数
static final int tableSizeFor(int cap) {
/*
不管cap的值是什么,都保证n是离cap最近的2的倍数值
numberOfLeadingZeros()方法返回cap-1的先导0的个数,由于Integer是32位的,高位会用0补齐
-1的二进制表示是32个1,逻辑右移先导0的个数就能保证n是2的倍数-1
*/
int n = -1 >>> Integer.numberOfLeadingZeros(cap - 1);
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
扩容的源码:
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
//获取原数组的长度
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
//原数组长度大于0,说明数组中已有元素,是扩容过程
if (oldCap > 0) {
//大于数组最大容量时,不进行扩容,而是扩充阈值,然后返回原数组
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
//不大于最大容量时,将容量和阈值都扩充为原来的两倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
/*
oldCap ==0且oldThr > 0时,说明调用的hashmap的构造函数是HashMap(int initialCapacity, float loadFactor)
这个构造函数中将threshold的值设置为了离initialCapacity最近的2的倍数,因此下两行的newCap = oldThr;才是合理的
保证了newCap 是2的倍数
*/
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
//oldCap == 0且oldThr == 0时,说明数组还没有初始化,则执行初始化过程
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
/*
承接的是 else if (oldThr > 0)这个代码块,若进入 else if (oldThr > 0)这个代码块,则只给newCap 赋了值,并没有给newThr 赋值,
所以这里要计算 newThr 的值
*/
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
//代码运行到这里之后,已经完成了新数组的扩容,即数组长度和阈值都变为原来的2倍,之后是数据迁移工作
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
//数组第j个桶不为null时
if ((e = oldTab[j]) != null) {
//释放引用
oldTab[j] = null;
//桶的位置没有发生hash冲突,是单个节点
if (e.next == null)
计算在新数组中的插入位置并插入到新数组中
newTab[e.hash & (newCap - 1)] = e;
//桶的位置是红黑树
else if (e instanceof TreeNode)
//执行红黑树的元素迁移过程
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
//桶的位置是链表,执行链表的迁移过程
else { // preserve order
//定义低位头尾指针和高位头尾指针
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
//下一个节点的指针
Node<K,V> next;
do {
next = e.next;
/*oldCap的值为
16->10000
32->100000
64->1000000
…………………………
故(e.hash & oldCap)只取决于对应于oldCap那一位的位是0还是1
*/
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
//低位构成的新链表放在新数组的同样的位置
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
//高位构成的新链表放在新数组中原位置后移原数组长度的位置
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
可以看到,扩容方法也进行了一定处理在保证效率的情况下使桶分布的更分散,即将链表按照标志位放到新数组的同样位置或者同样位置后移原数组长度的位置,而不是对每一个值都重新计算hash值再插入,这样效率很低。