手动撸一个HashMap(基于jdk1.7)

直接上代码;

public interface MyMap<K,V> {

    public V put(K k,V v);
    public V get(K k);

    interface Entry<K,V>{
        public K getKey();
        public V getValue();
    }

}
public class MyHashMap<K,V> implements MyMap<K,V> {
    //数组的默认初始长度
    private static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
    //阈值
    private static final float DEFAULT_LOAD_FACTOR = 0.75f;

    //初始长度
    private int defaultInitSize;

    //初始容量
    private float defaultLoadFactor;

    //map当中entry的数量
    private int entryUseSize;

    //数组
    private Entry<K,V>[] table = null;

    //构造方法

    public MyHashMap(){
        this(DEFAULT_INITIAL_CAPACITY,DEFAULT_LOAD_FACTOR);
    }

    public MyHashMap(int defaultInitialCapacity, float defaultLoadFactor){
        if(defaultInitialCapacity < 0){
            throw new IllegalArgumentException("Illegal initial capacity: "+defaultInitialCapacity);
        }
        if(defaultLoadFactor <= 0 || Float.isNaN(defaultLoadFactor)){
            throw new IllegalArgumentException("Illegal load factor: "+defaultLoadFactor);
        }
        this.defaultInitSize = defaultInitialCapacity;
        this.defaultLoadFactor = defaultLoadFactor;
        table = new Entry[this.defaultInitSize];
    }

    @Override
    public V put(K k, V v) {
        V oldValue = null;
        //扩容
        if(entryUseSize >= defaultInitSize * defaultLoadFactor){
            resize(2 * defaultInitSize);
        }
        //计算数组中的位置
        int index = hash(k) & (defaultInitSize -1);
        if(table[index] == null){
            table[index] = new Entry<K,V>(k,v,null);
            ++entryUseSize;
        }else{
            //需要遍历单链表
            Entry<K,V> entry = table[index];
            Entry<K,V> e = entry;
            while(e != null){
                if(k == e.getKey() || k.equals(e.getKey())){
                    oldValue = e.value;
                    e.value = v;//更新value
                    return oldValue;
                }
                e = e.next;
            }
            table[index] = new Entry<K,V>(k,v,entry);//形成新的Entry,挤压单链表(entry成为next)
            ++entryUseSize;
        }
        return null;
    }

    private int hash(K k){
        int hashCode = k.hashCode();
        hashCode ^= (hashCode >>> 20) ^ (hashCode >>> 12);
        return hashCode ^ (hashCode >>> 7) ^ (hashCode >>> 4);
    }

    private void resize(int i){
        Entry[] newTable = new Entry[i];
        //改变了数组的大小
        defaultInitSize = i;
        entryUseSize = 0;
        rehash(newTable);
    }

    private void rehash(Entry<K,V>[] newTable){
        //得到原来老的Entry集合,遍历单链表
        List<Entry<K,V>> entryList = new ArrayList<Entry<K,V>>();
        for(Entry<K,V> entry : table){
            if(entry != null){
                do{
                    entryList.add(entry);
                    entry = entry.next;
                }while (entry != null);
            }
        }
        //覆盖旧的引用
        if(newTable.length > 0){
            table = newTable;
        }
        //所谓重新hash,就是重新put entry到hashmap
        for(Entry<K,V> entry : entryList){
            put(entry.getKey(),entry.getValue());
        }
        /**
         * 这里可以看出,hashMap频繁进行resize/reshash操作是会影响性能的。
         * resize/rehash的过程,就是数组变大,原来的数组中的entry元素一个个的put到新的数组的过程,需要注意的就是一些状态量的变更。
         */
    }

    @Override
    public V get(K k) {
        int index = hash(k) & (defaultInitSize -1);
        if(table[index] == null){
            return null;
        }else{
            Entry<K,V> entry = table[index];
            do{
                if(k == entry.getKey() || k.equals(entry.getKey())){//== or equals来判断取值
                    return entry.value;
                }
                entry = entry.next;
            }while (entry != null);
        }
        return null;
    }

    /**
     * HashMap单链表
     * @param <K>
     * @param <V>
     */
    class Entry<K,V> implements MyMap.Entry<K,V>{
        private K key;
        private V value;
        private Entry<K,V> next;

        public Entry(){}

        public Entry(K key,V value,Entry<K,V> next){
            this.key = key;
            this.value = value;
            this.next = next;
        }


        @Override
        public K getKey() {
            return key;
        }

        @Override
        public V getValue() {
            return value;
        }
    }
}

测试一下;

 

public static void main(String[] args) {
    MyHashMap<String,String> myMap = new MyHashMap<>();
    for (int i = 0; i < 20 ; i++){
        myMap.put("key"+i,"value"+i);
    }
    for (int i = 0; i < 20 ; i++){
        System.out.println(myMap.get("key"+i));
    }
}
### 关于Java 1.7HashMap 头插法导致死循环的问题 在 JDK 1.7 版本中,`HashMap` 实现存在特定条件下可能导致死循环的情况。当 `HashMap` 进行扩容操作时,如果多个线程同时修改哈希表,则可能发生结构化修改异常,进而引发死循环。 #### 原因分析 具体来说,在多线程环境中执行插入或更新操作期间,`HashMap` 使用头插法来处理链表节点的重新分配过程[^1]。这意味着新节点总是被放置在链表头部位置。然而,在并发场景下,两个或更多线程可能几乎同时尝试对同一个桶(bucket)内的元素进行重定位。这会导致某些情况下形成环形数据结构——即最后一个节点指向第一个节点,从而创建了一个闭合回路。一旦发生这种情况,遍历该链表的操作将会陷入无限循环之中[^2]。 ```java // 描述了如何通过put方法触发此问题的一个简化版伪代码片段 public V put(K key, V value) { int hash = hash(key); int i = indexFor(hash, table.length); for (Entry<K,V> e = table[i]; e != null; e = e.next) { // 如果这里形成了闭环... Object k; if (e.hash == hash && ((k = e.key) == key || key.equals(k))) { V oldValue = e.value; e.value = value; e.recordAccess(this); return oldValue; } } modCount++; addEntry(hash, key, value, i); // ...那么addEntry()里的逻辑会因为上述for循环无法终止而永远等待下去。 } ``` #### 解决方案 为了避免这种潜在的风险并提高程序稳定性: - **使用线程安全容器**:推荐替换为 `ConcurrentHashMap` 或其他适合高并发访问的数据结构。这些类内部实现了更复杂的同步机制以防止竞争条件的发生。 - **外部锁定策略**:虽然不太理想但从理论上讲也可以考虑在整个读写过程中对外部施加全局锁(`synchronized`)或其他形式的手动互斥控制。不过这样做通常会对性能造成较大影响,并且违背了设计初衷之一—高效性[^4]。 综上所述,对于需要支持高度并发的应用程序而言,最合理的做法还是尽快迁移到更高版本 JVM 上面去,那里已经修复了许多此类低效甚至危险的设计缺陷;而在短期内不得不继续沿用旧平台的情况下,则应优先选用专门针对并发优化过的集合实现方式作为替代品。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值