Redis学习笔记:字典rehash底层实现与Java区别

环境

Java:11
Redis设计与实现

前言

今天在看Redis的字典rehash时,发现其与Java不一样;
并由此产生了如下思考:
① Redis既然采用的是渐进式rehash,那么Java的HashMap采用的是什么?
② 集中式重新rehash是非常耗性能的,hashMap中rehash的优化点在哪里?

扩容

以前下面这段代码我没有重点看,只知道这是在扩容;
今天重点看了下,不过红黑树没看:

final Node<K,V>[] resize() {
    Node<K,V>[] oldTab = table;
    // 原哈希表的长度
    int oldCap = (oldTab == null) ? 0 : oldTab.length;
    // 触发扩容的临界值
    int oldThr = threshold;
    int newCap, newThr = 0;
    if (oldCap > 0) {
    	// 1<<30 2^30 最大值
        if (oldCap >= MAXIMUM_CAPACITY) {
            threshold = Integer.MAX_VALUE;
            return oldTab;
        }
        // 左移1位相当于乘2, newCap就变成了原来的2倍
        else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                 oldCap >= DEFAULT_INITIAL_CAPACITY)
            newThr = oldThr << 1; // double threshold
    }
    else if (oldThr > 0) // initial capacity was placed in threshold
        newCap = oldThr;
    else {               // zero initial threshold signifies using defaults
        newCap = DEFAULT_INITIAL_CAPACITY;
        newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
    }
    if (newThr == 0) {
        float ft = (float)newCap * loadFactor;
        newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                  (int)ft : Integer.MAX_VALUE);
    }
    threshold = newThr;
    @SuppressWarnings({"rawtypes","unchecked"})
    Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
    table = newTab;
    if (oldTab != null) {
    	// 关键变量 e 每次遍历的当前元素
    	// 
        for (int j = 0; j < oldCap; ++j) {
            Node<K,V> e;
            if ((e = oldTab[j]) != null) {
                oldTab[j] = null;
                if (e.next == null)
                	// 无链表的情况
                    newTab[e.hash & (newCap - 1)] = e;
                else if (e instanceof TreeNode)
                    ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                else { // preserve order 有链表的情况
                    // 高位为0的头节点、高位为0的尾节点
                    Node<K,V> loHead = null, loTail = null;
                    // 高位为1的头结点、高位为1的尾节点
                    Node<K,V> hiHead = null, hiTail = null;
                    Node<K,V> next;
                    do {
                        // 链表当前节点
                        next = e.next;
                        // 因为原数组的长度都是2^n,
                        // 所以最高位是1,低位都是0
                        // e.hash & oldCap 就可以得出e.hash的高位是0 or 1
                        if ((e.hash & oldCap) == 0) {
                            if (loTail == null)
                                loHead = e;
                            else
                                loTail.next = e;
                            loTail = e;
                        } else {
                        // 数据高位为1的情况
                            if (hiTail == null)
                                hiHead = e;
                            else
                                hiTail.next = e;
                            hiTail = e;
                        }
                    } while ((e = next) != null);
                    if (loTail != null) {
                        loTail.next = null;
                        // 原索引没变情况
                        newTab[j] = loHead;
                    }
                    if (hiTail != null) {
                        hiTail.next = null;
                        // 因为扩容导致索引变化的情况
                        newTab[j + oldCap] = hiHead;
                    }
                }
            }
        }
    }
    return newTab;
}

这段代码整体理解起来不算难,需要注意地方:
① 移位: <<n 左移n位就是 乘以2n
② 因为原数组的长度都是2^n,所以最高位是1,低位都是0,e.hash & oldCap 就可以得出e.hash的高位是0 or 1;

newTab[j + oldCap] = hiHead; 的理解

可以看到这段代码中数组扩容后,当原hash的高位为1时,新索引的位置是j + oldCap

为什么时这样的呢?

现在我们假设HashMap初始容量是8;
现在需要存入key13这么一个数字;
那么它的索引位置在哪呢?

索引位置:key & (length - 1)
13 &(8-1)= 13 & 7
13 转成二进制:1101
7 转成二进制:0111

做&运算后:0101 = 5
如下图所示:
在这里插入图片描述

假设现在扩容了,容量变为了16,即原来的一倍;

我们再来计算下新的索引位置:
13 转成二进制:1101
15 转成二进制:1111

做&运算后:1101 = 13,这个位置正好是 5 + 8 = 13,
即旧索引位置 + 扩容前的容量:newTab[j + oldCap] = hiHead

在这里插入图片描述
所以Java在扩容时,在重新计算hash值这一块是很快的;

Redis

Redis的扩容和收缩,是利用两个哈希表来完成。在设计上就和Java有区别;

typedef struct dict {
	dictType *type;
	void * privdata;
	// 哈希表
	dictht ht[2];
	// rehash索引,当rehash不在进行时,值为-1
	int rehashidx;
} dict;

从上面的结构中就可以看出,Redis字典创建时就有两个哈希表,不rehash的情况下,只使用ht[0]这个哈希表,当发生扩容和收缩时,才会用到ht[1]哈希表和rehashidx这个属性;

Redis采用的是渐进式过程,其重新计算hash和数据搬运的过程是发生在增删改查的操作中的,而不是集中一次性完成的。

rehash的过程:

① 为ht[1]分配空间,空间大小为旧空间的2n;
② 将字典中维持的索引计数器rehashidx设置0,表示rehash工作正式开始;
③ 在rehash期间,每次对字典的增、删、改、查,操作,程序除了执行指定的操作之外,还会顺带将ht[0]哈希表在rehashidex索引上的所有键值对rehash到ht[1],当完成后,程序将rehashidex的值加一。
④ 随着字典操作的不断进行,ht[0]表中的所有键值对都会被rehash到ht[1],这时会将rehashidx属性值设置为-1,表示rehash操作结束。

总结

在这里插入图片描述

功能JavaRedis
扩容集中式扩容渐进式扩容
收缩不支持收缩支持收缩
哈希冲突采用链表和红黑树解决冲突采用链表解决冲突

换种说法:Java 扩容类似股票暴跌,一天跌到位,Redis扩容类似阴跌,跌它一个月,跌到位。
Q:Java为什么不支持收缩?
A:Java是以空间换时间,支持收缩不符合它的理念
Q:Java采用集中式扩容有没有性能问题?
A:有

个人注意的细节:
我发现Java的hashMap和Redis哈希表中的next指针,都是用来解决哈希冲突时,形成链表用的。

参考地址:

深入分析 JDK8 中 HashMap 的原理、实现和优化

评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

山鬼谣me

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值