HashMap1.7源码详解

本文详细探讨了HashMap在Java 1.7版本的实现,包括其继承结构、数据结构(数组+链表)、成员变量、构造方法、put、get、remove等核心操作的源码分析。特别指出,HashMap在1.7版本中使用头插法可能导致并发下的链表死循环问题。

概述

本文主要分析HashMap类的源码

HashMap继承结构

public class HashMap<K,V>
    extends AbstractMap<K,V>
    implements Map<K,V>, Cloneable, Serializable
{

HashMap继承结构图

可以看到:

1、实现了 Map 接口,拥有一组map的通用操作

2、实现了 Cloneable 接口,可进行拷贝,需要注意的是 hashmap 是浅拷贝,修改拷贝对象对源对象会产生影响

3、实现了 Serializable 接口,实现了序列化,可保存于本地

HashMap的数据结构

数组 + 单向链表

HashMap的成员变量

    /**
     * The default initial capacity - MUST be a power of two.
     * 默认初始容量
     */
    static final int DEFAULT_INITIAL_CAPACITY = 16;

    /**
     * The maximum capacity, used if a higher value is implicitly specified
     * by either of the constructors with arguments.
     * MUST be a power of two <= 1<<30.
     * 最大容量
     */
    static final int MAXIMUM_CAPACITY = 1 << 30;

    /**
     * The load factor used when none specified in constructor.
     * 默认负载因子,用来指示元素个数占整体容量的比例,当元素达到这个比例的时候,就准备扩容了
     * 为什么加载因子是0.75?【经常被问到的面试题】
     */
    static final float DEFAULT_LOAD_FACTOR = 0.75f;

    /**
     * The table, resized as necessary. Length MUST Always be a power of two.
     * 用来存储键值对的Entry数组
     */
    transient Entry<K,V>[] table;

    /**
     * The number of key-value mappings contained in this map.
     * 实际的元素个数
     */
    transient int size;

    /**
     * The next size value at which to resize (capacity * load factor).
     * 阈值 = capacity(容量)* loadFactor(负载因子。这个值是当前已占用数组长度的最大值。size 超过这个值就重新 resize(扩容),
     * 扩容后的 HashMap 容量是之前容量的两倍。默认的临界值是12 = 16 * 0.75
     */
    int threshold;

    /**
     * The load factor for the hash table.
     * 哈希表的负载因子,默认是0.75f
     */
    final float loadFactor;

    /**
     * 每次扩容和更改 map 结构的计数器
     */
    transient int modCount;

Entry必须要介绍一下,看源码

    static class Entry<K,V> implements Map.Entry<K,V> {
        final K key; // 存储的key
        V value; // 存储的value
        Entry<K,V> next; // next指针,指向下一个节点
        int hash; // 哈希值

可以看到,Entry 是 HashMap 的静态内部类,key 是存储的键,value 是存储的值,由于HashMap的数据结构是数组 + 链表,所以 next 是链表指向下一个节点的指针,hash 是哈希值

HashMap的构造方法

两个参数的构造方法

    /**
     * Constructs an empty <tt>HashMap</tt> with the specified initial
     * capacity and load factor.
     * 两个参数的构造方法
     * @param  initialCapacity the initial capacity
     * @param  loadFactor      the load factor
     * @throws IllegalArgumentException if the initial capacity is negative
     *         or the load factor is nonpositive
     */
    public HashMap(int initialCapacity, float loadFactor) {
        // 初始容量不合法抛出异常
        if (initialCapacity < 0)
            throw new IllegalArgumentException("Illegal initial capacity: " +
                                               initialCapacity);
        // 超过最大容量的话就设置为最大容量
        if (initialCapacity > MAXIMUM_CAPACITY)
            initialCapacity = MAXIMUM_CAPACITY;
        if (loadFactor <= 0 || Float.isNaN(loadFactor))
            throw new IllegalArgumentException("Illegal load factor: " +
                                               loadFactor);

        // Find a power of 2 >= initialCapacity
        // 传入的容量并不一定是2的n次幂,找到最小的二次幂容量
        int capacity = 1;
        while (capacity < initialCapacity)
            capacity <<= 1;

        // 实际负载因子
        this.loadFactor = loadFactor;
        // 阈值
        threshold = (int)Math.min(capacity * loadFactor, MAXIMUM_CAPACITY + 1);
        // 根据容量创建 table 数组
        table = new Entry[capacity];
        useAltHashing = sun.misc.VM.isBooted() &&
                (capacity >= Holder.ALTERNATIVE_HASHING_THRESHOLD);
        // 空方法,留给用户自己扩展
        init();
    }

一个参数的构造方法

    // 一个参数的构造方法,使用默认负载因子0.75
    public HashMap(int initialCapacity) {
        this(initialCapacity, DEFAULT_LOAD_FACTOR);
    }

无参构造函数

    public HashMap() {
        //传入默认大小,和加载因子
        this(DEFAULT_INITIAL_CAPACITY, DEFAULT_LOAD_FACTOR);
    }

put方法

    public V put(K key, V value) {
        // 如果key为null,单独处理
        if (key == null)
            return putForNullKey(value);
        int hash = hash(key);//计算出哈希值
        int i = indexFor(hash, table.length);//通过哈希值计算出哈希桶的位置
        //遍历链表,判断是否有key相等(即哈希值相等)的节点,如果有,则更新值,并返回旧的值
        for (Entry<K,V> e = table[i]; e != null; e = e.next) {
            Object k;
            if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
                V oldValue = e.value;
                e.value = value;
                e.recordAccess(this);
                return oldValue;
            }
        }
        modCount++; // 更新次数+1
        addEntry(hash, key, value, i); // 没有找到相同的
        return null;
    }

putForNullKey()方法

    // 如果key为null
    private V putForNullKey(V value) {
        // key为null的键值对,默认存放在0号位置
        for (Entry<K,V> e = table[0]; e != null; e = e.next) {
            // 覆盖相同的值
            if (e.key == null) {
                V oldValue = e.value;
                e.value = value;
                e.recordAccess(this);
                return oldValue;
            }
        }
        modCount++;
        addEntry(0, null, value, 0); // 没有找到相同的
        return null;
    }

hash()方法

    final int hash(Object k) {
        int h = 0;
        if (useAltHashing) {
            if (k instanceof String) {
                return sun.misc.Hashing.stringHash32((String) k);
            }
            h = hashSeed;
        }

        h ^= k.hashCode();

        // 通过多次位运算进行扰动,减少哈希冲突
        h ^= (h >>> 20) ^ (h >>> 12);
        return h ^ (h >>> 7) ^ (h >>> 4);
    }

indexFor()方法

    // 计算Entry在数组中的位置
    static int indexFor(int h, int length) {
        // 和长度-1进行与运算,相当于进行模n计算
        return h & (length-1);
    }

addEntry()方法

void addEntry(int hash, K key, V value, int bucketIndex) {
        //判断是否要扩容
        if ((size >= threshold) && (null != table[bucketIndex])) {
            resize(2 * table.length); // 扩容
            hash = (null != key) ? hash(key) : 0;
            bucketIndex = indexFor(hash, table.length);
        }

        createEntry(hash, key, value, bucketIndex);
    }

resize()方法

    void resize(int newCapacity) {
        Entry[] oldTable = table; // 旧的数组
        int oldCapacity = oldTable.length; // 旧的容量
        if (oldCapacity == MAXIMUM_CAPACITY) { // 如果本身达到了最大的容量
            threshold = Integer.MAX_VALUE;
            return;
        }

        Entry[] newTable = new Entry[newCapacity]; // 创建新的数组,容量为原来的2倍
        boolean oldAltHashing = useAltHashing;
        useAltHashing |= sun.misc.VM.isBooted() &&
                (newCapacity >= Holder.ALTERNATIVE_HASHING_THRESHOLD);
        boolean rehash = oldAltHashing ^ useAltHashing;
        transfer(newTable, rehash); // 迁移旧的Entry到扩容后的数组中
        table = newTable; // 将table指向新的数组
        threshold = (int)Math.min(newCapacity * loadFactor, MAXIMUM_CAPACITY + 1); // 重新计算阈值
    }

createEntry()方法

    //头插法在这里
    void createEntry(int hash, K key, V value, int bucketIndex) {
        //先获取头结点
        Entry<K,V> e = table[bucketIndex];
        //创建新的节点指向头结点,使其成为新的头结点
        table[bucketIndex] = new Entry<>(hash, key, value, e);
        size++;
    }

transfer()方法

    /**
     * 将所有元素转移到新容器中 newTable。在转移的过程中会产生并发问题,产生 环状,在 get 元素的时候产生死循环
     * newCapacity: 容量翻倍的新的空数组
     * 双重循环遍历数组+链表
     */
    void transfer(Entry[] newTable, boolean rehash) {
        int newCapacity = newTable.length;
        for (Entry<K,V> e : table) {
            while(null != e) {
                Entry<K,V> next = e.next;
                if (rehash) {
                    e.hash = null == e.key ? 0 : hash(e.key);
                }
                int i = indexFor(e.hash, newCapacity);
                e.next = newTable[i];
                newTable[i] = e;
                e = next;
            }
        }
    }

HashMap1.7的put()方法整体流程如下图:

注意:

HashMap1.7是使用头插法插入节点的,在进行扩容调用resize方法,进而调用transfer方法迁移元素的时候,如果多线程并发,就有可能出现链表死循环的问题。

get()方法

    public V get(Object key) {
        if (key == null) // key为null单独处理
            return getForNullKey();
        Entry<K,V> entry = getEntry(key); // 获取元素

        return null == entry ? null : entry.getValue();
    }

    // 如果key为null,就去数组中0位置去查找
    private V getForNullKey() {
        for (Entry<K,V> e = table[0]; e != null; e = e.next) {
            if (e.key == null)
                return e.value;
        }
        return null;
    }

    final Entry<K,V> getEntry(Object key) {
        int hash = (key == null) ? 0 : hash(key); // 计算哈希值
        //遍历Entry,判断是否存在相同的key
        for (Entry<K,V> e = table[indexFor(hash, table.length)];
             e != null;
             e = e.next) {
            Object k;
            // 如果发现相同的key,就返回value
            if (e.hash == hash &&
                ((k = e.key) == key || (key != null && key.equals(k))))
                return e;
        }
        return null;
    }

get方法先根据hash值计算出在数组中的位置,如果发现相同的key的Entry,就返回值。

remove()方法

    public V remove(Object key) {
        Entry<K,V> e = removeEntryForKey(key);
        return (e == null ? null : e.value);
    }

    final Entry<K,V> removeEntryForKey(Object key) {
        int hash = (key == null) ? 0 : hash(key);// 计算hash值
        int i = indexFor(hash, table.length);  // 计算数组中的位置
        Entry<K,V> prev = table[i];
        Entry<K,V> e = prev;

        while (e != null) {
            Entry<K,V> next = e.next;
            Object k;
            if (e.hash == hash &&
                ((k = e.key) == key || (key != null && key.equals(k)))) {
                modCount++;
                size--;
                if (prev == e) // 如果删除的是头节点
                    table[i] = next; // 那么下个节点就作为新的头节点
                else // 删除的是中间节点
                    prev.next = next; // 前驱节点指向下一个节点
                e.recordRemoval(this); // 空方法
                return e;
            }
            prev = e; // 记录前驱节点
            e = next;
        }

        return e;
    }

remove方法通过hash值计算出在数组中桶的位置,然后遍历桶中的Entry,找到相同的key就删除。

<think>我们正在讨论Java HashMap 1.7版本扩容过程的详细解释。注意,用户要求详细解释扩容过程,并且我们有一些引用材料可以参考。 引用[1][2][3][4][5]都涉及到HashMap 1.7的扩容,特别是引用[3][4][5]详细描述了扩容过程以及多线程下产生死循环的问题。 根据引用材料,我们可以总结扩容过程如下: 1. 触发条件:当元素数量达到阈值(threshold)并且当前桶中已经有元素(即发生哈希碰撞)时,进行扩容(引用[2])。 2. 扩容操作:创建一个新的Entry数组,大小为原数组的2倍,然后将原有Entry数组中的元素重新计算位置(重新哈希)并转移到新数组中(引用[3][4])。 3. 转移过程:使用transfer方法,遍历原数组的每个桶(即每个链表),对每个链表进行遍历,将每个节点重新计算在新数组中的位置(引用[3][4])。 4. 重新哈希:计算每个节点在新数组中的索引(indexFor方法),然后使用头插法将节点插入新数组的对应位置(引用[3][5])。 关键点: - 头插法:在转移链表节点时,采用头插法。即每次将节点插入到新数组对应桶的头部。这会导致链表顺序反转(引用[5])。 - 多线程问题:头插法在并发扩容时可能导致环形链表,从而在后续操作时造成死循环(引用[3][4][5])。 详细步骤(单线程下): 1. 根据原数组长度计算新数组长度(原数组长度*2)。 2. 创建新数组。 3. 遍历原数组的每个桶(每个链表): for (Entry<K,V> e : table) { while (e != null) { // 步骤a:记录下一个节点 Entry<K,V> next = e.next; // 如果需要重新哈希,则重新计算哈希值(rehash默认为false,一般不需要) if (rehash) { e.hash = (e.key == null) ? 0 : hash(e.key); } // 步骤b:重新计算该节点在新数组中的桶下标(索引) int i = indexFor(e.hash, newCapacity); // 步骤c:头插法 e.next = newTable[i]; // 将当前节点的next指向新数组中该桶的第一个节点(可能为null) newTable[i] = e; // 将新数组中该桶的头节点设为当前节点 e = next; // 处理下一个节点 } } 注意:头插法会导致链表顺序反转。例如,原链表为A->B->C,转移后在新数组中变为C->B->A。 多线程环境下为什么会产生环形链表? 假设有两个线程同时进行扩容,原链表为:A->B->C(指向null)。 线程1执行到`Entry<K,V> next = e.next;`后挂起,此时线程1记录e=A, next=B。 线程2执行完整个转移过程,新数组中该桶的链表变为C->B->A(即头插法反转)。 然后线程1继续执行,此时: e=A, next=B(线程1记录的) 重新计算A在新数组中的位置(假设仍在同一位置),然后执行: e.next = newTable[i]; // 此时newTable[i]是线程2已经转移后的头节点(即C,但是注意线程2已经反转了链表,所以原链表A->B->C变为C->B->A,而线程1执行时,线程2已经将新数组的该桶设置为C,并且C->B->A) 因此A.next指向了C。 然后newTable[i]=A,这样新数组中该桶的头节点变为A,而A.next=C,而C后面连接的是B->A(因为线程2的结果是C->B->A,而线程1又将A插入到头部,所以形成了环?) 具体形成环的过程(详细): 初始状态:链表为 A -> B -> C -> null 线程2成功扩容后,新数组中的链表为 C -> B -> A -> null(因为头插法反转) 线程1此时继续执行(因为线程1已经记录了e=A, next=B): 第一步:处理节点A e = A, next = B 重新计算A的索引(假设和C在同一桶) e.next = newTable[i] -> 此时newTable[i]是C(因为线程2已经将C放在该桶的头节点),所以A.next = C newTable[i] = A -> 现在该桶的头节点变成了A,而A指向C,而C在之前(线程2处理的结果)指向B,B指向A(因为线程2处理完后,B.next=A,而线程1将A.next改为指向C,但实际上线程2的B.next=A,所以现在有:A->C->B->A,形成一个环) 因此,当后续对该桶进行遍历时,就会陷入死循环。 注意:引用[3][4][5]都详细描述了这个问题。 现在我们根据用户的请求,详细解释扩容过程(重点在单线程下的正常扩容过程,并说明多线程下问题的原因)。 回答结构: 1. 触发扩容的条件 2. 扩容的步骤(重点在transfer方法) 3. 头插法的特点及其影响(反转链表) 4. 多线程下产生问题的原因(简要描述) 注意:用户要求详细解释扩容过程,所以重点放在步骤上。 最后,生成相关问题。 </think>### Java HashMap 1.7 扩容过程详解 #### 1. **触发条件** 当元素数量达到阈值且目标桶非空时触发扩容: ```java if ((size >= threshold) && (null != table[bucketIndex])) { resize(2 * table.length); // 扩容为原表2倍[^2] hash = (null != key) ? hash(key) : 0; bucketIndex = indexFor(hash, table.length); } createEntry(hash, key, value, bucketIndex); ``` - **阈值计算**:$threshold = capacity \times loadFactor$(负载因子默认 0.75) - **扩容幅度**:新容量 = 旧容量 × 2 --- #### 2. **核心步骤:`resize()` 与 `transfer()` **(1) 创建新数组** ```java void resize(int newCapacity) { Entry[] newTable = new Entry[newCapacity]; transfer(newTable, rehash); // 数据迁移 table = newTable; // 替换原数组 threshold = (int)(newCapacity * loadFactor); // 更新阈值 } ``` **(2) `transfer()` 数据迁移** ```java void transfer(Entry[] newTable, boolean rehash) { int newCapacity = newTable.length; for (Entry<K,V> e : table) { // 遍历旧数组每个桶 while (null != e) { // 遍历桶内链表 Entry<K,V> next = e.next; // 保存下一节点 if (rehash) { e.hash = (null == e.key) ? 0 : hash(e.key); } int i = indexFor(e.hash, newCapacity); // 新桶下标 e.next = newTable[i]; // 头插法 newTable[i] = e; // 更新桶头节点 e = next; // 处理下一节点 } } } ``` --- #### 3. **关键操作解析** 1. **头插法(链表反转)** - 操作顺序:`e.next = newTable[i]` → `newTable[i] = e` - 效果:原链表 `A→B→C` 迁移后变为 `C→B→A`[^5] - 示例: ```mermaid graph LR 旧桶-->|A→B→C| 迁移 迁移-->|步骤1| e.next=null 迁移-->|步骤2| newTable[i]=A 迁移-->|步骤3| e=B; e.next=A --> newTable[i]=B --> C=B.next 迁移-->|结果| C→B→A ``` 2. **索引重定位** - 计算新下标:$i = hash \& (newCapacity-1)$ - 扩容后节点可能分配到新位置: $$ newIndex = oldIndex \quad or \quad oldIndex + oldCapacity $$ --- #### 4. **多线程死锁问题(环形链表)** 并发扩容时,头插法+链表截断会导致环形链表: 1. **初始状态**:桶链表为 `A → B → null` 2. **线程1挂起**:执行 `next = e.next` 后记录 `e=A, next=B` 3. **线程2完成扩容**:新链表变为 `B → A → null` 4. **线程1继续执行**: ```java e.next = newTable[i]; // A.next = B(此时B.next已指向A) newTable[i] = e; // 桶头变为A e = next; // e=B ``` 结果形成环形链表 `A → B → A`[^3][^4],后续操作陷入死循环。 --- #### 5. **与JDK 1.8的区别** | 特性 | JDK 1.7 | JDK 1.8 | |--------------|-----------------------|-----------------------| | **插入方式** | 头插法(反转链表) | 尾插法(保持顺序) | | **数据结构** | 数组+链表 | 数组+链表/红黑树 | | **线程安全** | 并发扩容可能死锁[^1] | 优化尾插法避免环形链表 | > 示例:JDK 1.7的迁移过程源码见引用[3][4][5],多线程问题图解见引用[3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值