全是个人理解产物,仅供参考
看到HashSet的源码:
public class HashSet<E> extends AbstractSet<E> implements Set<E>, Cloneable, java.io.Serializable{
//用关键字transient标注的字段不参与java的序列化
private static final Object PRESENT = new Object();
private transient HashMap<E,Object> map;
public boolean add(E e) {
return map.put(e, PRESENT)==null;
}
一、发现HashSet底层维护的是一个HashMap,只不过说key才是我们存储的值,value全部设置成同一个Object对象了,还是刚new出来的,原因应该是为了节约内存空间
二、HashSet的add方法调用的其实是HashMap的put方法,返回是否添加成功,看的是,put方法的返回值是不是空
再看到HashMap源码:
public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable {
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,boolean evict) {
。。。。。。
}
}
三、HashMap的put方法调用的是自己的putVal方法,这里面有几个参数
参数 | 解释 |
---|---|
hash(key) | 拿着key对象,去求了哈希值,如果key为空,直接返回0,如果不为空,先用这个对象的hashCode方法计算哈希值,然后做个位运算,求出最后需要用到的散列码 |
key | key |
value | 这是刚new出来的Object对象,这个HashSet实例所有键值对的value都是同一个 |
false | 是否用新value值替换旧value值 |
true | 此处只与LinkedHashMap有关 |
四、然后看到putVal方法,我们拆成几部份来看,第一部分定义了以下局部变量
Node<K,V>[] tab; Node<K,V> p; int n, i;
static class Node<K,V> implements Map.Entry<K,V> {
....
Node<K,V> next;
}
①首先看到Node这个类,这就是个键值对,不过比较特殊的是,它比起Enrty,多个一个Node<K,V> next,这是该节点的后继节点变量引用(我们知道HashSet底层维护的其实是个链表数组,这就是那个链表)
变量 | 类型 | 解释 |
---|---|---|
tab | Node<K,V>[] | 这就是我们的数组,里头的元素就是一个个的链表 |
p | Node<K,V> | 单个链表的某个节点 |
n | int | 链表数组的容量 |
i | int | 该键值对最终会落入的链表在数组中的索引 |
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
②这个resize()方法实际上就是再散列的方法,此处先不细究,只要知道,此处该方法的作用就是,如果此时数组为空,或者数组的容量为0,则创建一个新的链表数组,容量为初始默认值,16,扩容因子为默认值0.75
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
③(n - 1) & hash]用位运算的方法完成取模的算法,如果该位置为空,则以该键值对为基础,创建新节点,作为新链表的头节点,将链表加入数组中
else {
Node<K,V> e; K k;
if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
④如果该位置已经存在链表,则分为三种情况
-
情况一:头结点在业务逻辑上为同一元素(业务逻辑上是否相等由equals和hashCode方法定义)
- 条件一:头结点的hash值和新元素的hash值一致(大部分元素仅仅通过hash值就能完成区分,通过&&进行短路避免下一步判断,提高效率)
- 条件二:头结点的key和新元素的key是同一对象 或 新元素的key不为null且通过equals判断为相等(同一对象在业务逻辑上必定相等,不同对象是否相等就看重写的equals方法,这也是为什么重写equals方法和hashCode方法的部分原因)
-
情况二:这个Set集合,是有序集(树集,底层实现是红黑树),此处不做讨论
-
情况三:头结点不相等,递归对下一节点进行判断,直到遇到以下情形时,做相应处理后退出
- 情况a:下一节点为空,在此处加入新结点,然后此时判断新链表的长度,如果链表长度大于等于阈值(默认为8),执行方法treeifyBin(tab, hash)待解读
- 情况b:下一节点在业务逻辑上为同一元素,直接退出
⑤最终结果有两个
-
结果a:该元素已存在(找到业务逻辑上相同结点),此时如果旧value为空,或者设置了新值替换旧值,则用新value覆盖旧value,afterNodeAccess(e)这个方法是为LinkedHashMap服务的,此处忽略,返回旧值,存在返回值代表添加失败
-
结果b:该元素作为新结点完成插入,记录新节点插入次数,返回null,代表添加成功
++modCount;记录该实例的结构修改次数()
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
⑥此外,还做了以下操作
- 记录了该实例的结构修改次数(结构修改包含两种操作,结点数量的改变或结构修改,如rehash)
- 判断当前结点的数量是否已经大于阈值,如果是,进行再散列
- void afterNodeInsertion(boolean evict) { }这个方法是为LinkedHashMap服务的,此处忽略
所以综上可得,当在业务逻辑上存在同一元素时,就会避免新元素添加到链表数组中,二判断逻辑是通过hashCode方法和equals方法、内存地址判断来确定的
再散列方法resize()
final Node<K,V>[] resize() {...}
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
①首先初始化几个关键值
变量 | 类型 | 解释 |
---|---|---|
oldTab | Node<K,V>[] | 链表数组 |
oldCap | int | 旧数组的容量,即桶数bucket |
oldThr | int | 旧HashMap扩容阈值 |
newCap | int | 新数组容量 |
newThr | int | 新HashMap扩容阈值 |
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
②当桶数大于0时,分两种情况
情况一:桶数已经达到上限,设置扩容阈值为int类型的最大值0x7fffffff,直接返回旧map
情况二:桶数还能扩容,直接扩容为原来的两倍,但是此时扩容阈值不一定会变为原来的两倍,考虑以下情况
③当桶数等于0时,分两种情况
情况一:此时扩容阈值不为0(一般扩容因子默认值为0.75,此处为什么不为0有待探究),新map的桶数直接等于旧map的扩容阈值,这边又涉及到桶数必须是2的幂次方的问题(*扩容因子后一般不会是2的幂次方了),所以这种情况的触发条件有待探究
情况二:扩容阈值为0,此时创建新map,桶数为默认值16,扩容因子为默认值0.75
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
④当新扩容阈值为0时,如果新桶数已经达到上限且扩容阈值小于桶数上限,扩容阈值设置为int类型最大值,而非桶数*扩容因子,毕竟已经无法再扩容
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}