主要关注几个点:
1,初始化大小是16,如果事先知道数据量的大小,建议修改默认初始化大小。 减少扩容次数,提高性能 ,这是我一直会强调的点
2,最大的装载因子默认是0.75,当HashMap中元素个数达到容量的0.75时,就会扩容。 容量是原先的两倍
3,HashMap底层采用链表法来解决冲突。 但是存在一个问题,就是链表也可能会过长,影响性能
于是JDK1.8,对HashMap做了进一步的优化,引入了红黑树。
当链表长度超过8,且数组容量大于64时,链表就会转换为红黑树
当红黑树的节点数量小于6时,会将红黑树转换为链表。
因为在数据量较小的情况下,红黑树要维护自身平衡,比链表性能没有优势。
这3点非常重要!
其次,LinkedHashMap就是链表+散列表的结构,其底层采用了Linked双向链表来保存节点的访问顺序,所以保证了有序性。
JDK1.7跟JDK1.8在ConcurrentHashMap的实现上存在以下区别:
1,数据结构
JDK1.7采用链表的方式,而JDK1.8则采用链表+红黑树的方式
2,发生hash碰撞之后
JDK1.7发生碰撞之后,会采用链表的方式来解决
JDK1.8发生碰撞之后,默认采用链表,但当链表的长度超过8,且数组容量超过64时,会转换为红黑树存储
3,保证并发安全
JDK1.7采用分段锁的方式,而JDK1.8采用CAS和synchronized的组合模式
4,查询复杂度
JDK1.7采用链表的方式,时间复杂度为O(n),而JDK1.8在采用红黑树的方式时,时间复杂度为O(log(n))
作者:风清扬
链接:https://zhuanlan.zhihu.com/p/58621094
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
本文深入解析HashMap的初始化大小、装载因子、冲突解决策略以及JDK1.8引入的红黑树优化。同时探讨了JDK1.7与JDK1.8在ConcurrentHashMap实现上的差异,包括数据结构、碰撞处理、并发安全性和查询复杂度的变化,揭示了并发编程中的性能考量。
595

被折叠的 条评论
为什么被折叠?



