哈希表的由来:
顺序结构以及平衡树中,元素关键码与其存储位置之间没有对应的关系,因此在查找一个元素时,必须要经过关键码的多次比较。顺序查找时间复杂度为O(N),平衡树中为树的高度,即O(以2为底的n的对数 ),搜索的效率取决于搜索过程中元素的比较次数。时间复杂度不可能达到O(1).
因此我们就要一个理想的查找方法:可以不经过任何比较,一次直接从表中得到要搜索的元素。 如果构造一种存储结构,通过某种函数(hashFunc)使元素的存储位置与它的关键码之间能够建立一一映射的关系,那么在查找时通过该函数可以很快找到该元素。
插入元素:
根据待插入元素的关键码,以此函数计算出该元素的存储位置并按此位置进行存放搜索元素:
对元素的关键码进行同样的计算,把求得的函数值当做元素的存储位置,在结构中按此位置取元素比较,若关键码相等,则搜索成功
时间复杂度也会达到O(1)
该方式即为哈希(散列)方法,哈希方法中使用的转换函数称为哈希(散列)函数,构造出来的结构称为哈希表(HashTable)(或者称散列表)
比如
数据集合{1,7,6,4,5,9};
哈希函数设置为:hash(key) = key % capacity; capacity为存储元素底层空间总的大小。
就可以这样存放↓

这样就避免了关键码的多次比较,搜索的效率大大提升,但是问题来了,如果数据集合中有一个14,当14 % 10 之后也等于4 那也是放在4号下标位置吗,那不就把原来的4给覆盖掉了,此时会发生冲突.
什么是冲突:
对于两个数据元素的关键字ki 和 kj(i != j),有ki !=kj ,但有:Hash(ki ) == Hash(kj ),即:不同关键字通过相同哈希哈数计算出相同的哈希地址,该种现象称为哈希冲突或哈希碰撞。把具有不同关键码而具有相同哈希地址的数据元素称为“同义词”。
既然发生冲突,那我么就要先避免冲突
冲突的避免--哈希函数的设计:
首先,我们需要明确一点,由于我们哈希表底层数组的容量往往是小于实际要存储的关键字的数量的,这就导致一个问题,冲突的发生是必然的,但我们能做的应该是尽量的降低冲突率。
引起哈希冲突的一个原因可能是:哈希函数设计不够合理。 哈希函数设计原则:
1.哈希函数的定义域必须包括需要存储的全部关键码,而如果散列表允许有m个地址时,其值域必须在0到m-1之间
2.哈希函数计算出来的地址能均匀分布在整个空间中
3.哈希函数应该比较简单
其实由很多设计好的哈希函数来给我们使用,常见的也就是上述的取余函数.
此外还有一个重要的方法--负载因子
冲突的避免--负载因子调节

负载因子大小和冲突率的关系

当冲突率很高时,我们就要调节负载因子的大小来降低冲突率
哈希表关键字的个数是无法改变的,所以我们只能够调节数组的大小来减小负载因子
当冲突已经发生时,那么我们就要解决冲突
解决哈希冲突两种常见的方法是:闭散列和开散列
冲突的解决--闭散列:
闭散列:也叫开放定址法,当发生哈希冲突时,如果哈希表未被装满,说明在哈希表中必然还有空位置,那么可以把key存放到冲突位置中的“下一个” 空位置中去.
如何找下一个位置呢?
1.线性探测:
从发生冲突的位置开始,依次向后探测,直到寻找到下一个空位置为止。
即上述示例发生冲突时,14存放的位置如图

注意:采用闭散列处理哈希冲突时,不能随便物理删除哈希表中已有的元素,若直接删除元素会影响其他元素的搜索。比如删除元素4,如果直接删除掉,44查找起来可能会受影响。因此线性探测采用标记的伪删除法来删除一个元素。
2.二次探测:
线性探测的缺陷是产生冲突的数据堆积在一块,这与其找下一个空位置有关系,因为找空位置的方式就是挨着往后逐个去找,因此二次探测为了避免该问题,找下一个空位置的方法为:Hi = ( H0+ i^2 )% m, 或者:Hi = (H0 - i^2 )% m。其中:i = 1,2,3…,H0 是通过散列函数Hash(x)对元素的关键码 key 进行计算得到的位置,m是表的大小
当表的长度为质数且表装载因子a不超过0.5时,新的表项一定能够插入,而且任何一个位置都不
会被探查两次。因此只要表中有一半的空位置,就不会存在表满的问题。在搜索时可以不考虑表装满的情
况,但在插入时必须确保表的装载因子a不超过0.5,如果超出必须考虑增容。
这样看来闭散列有很大的缺陷,最重要的解决方法还是开散列,也是java底层源代码所示用的方法
冲突的解决--开散列/哈希桶**:
开散列法又叫链地址法(开链法),首先对关键码集合用散列函数计算散列地址,具有相同地址的关键码归于同一子集合,每一个子集合称为一个桶,各个桶中的元素通过一个单链表链接起来,各链表的头结点存储在哈希表中。

从上图可以看出,开散列中每个桶中放的都是发生哈希冲突的元素。
开散列,可以认为是把一个在大集合中的搜索问题转化为在小集合中做搜索了。
刚才我们提到了,哈希桶其实可以看作将大集合的搜索问题转化为小集合的搜索问题了,那如果冲突严重,就意味着小集合的搜索性能其实也时不佳的,这个时候我们就可以将这个所谓的小集合搜索问题继续进行转化,例如:
1. 每个桶的背后是另一个哈希表
2. 每个桶的背后是一棵搜索
java的源代码就是将链表变成一颗红黑树
下面是模拟实现一个简单哈希桶的代码↓
包括pushVal ,getVal,扩容的方法
public class HashBuck {
static class Node {
public int key;
public int val;
public Node next;
public Node(int key, int val) {
this.key = key;
this.val = val;
}
}
public Node[] arr = new Node[10];
public int usedSize;
public static final double DEFAULT_LOAD_FACTOR = 0.75f;
//添加数据
public void push(int key, int val) {
int index = key % arr.length;
Node cur = arr[index];
while (cur != null) {
if(cur.key == key) {
cur.val = val;
return;
}
cur = cur.next;
}
//没有在当前的链表中找到该节点
Node node = new Node(key, val);
//头插法
node.next = arr[index];
arr[index] = node;
usedSize++;
//扩容
if(doLoadFactor() >= DEFAULT_LOAD_FACTOR) {
resize();
}
}
//扩容
private void resize() {
//arr = Arrays.copyOf(arr, 2 * arr.length);//错误的写法
Node[] newArr = new Node[arr.length * 2];
for (int i = 0; i < arr.length; i++) {
Node cur = arr[i];
while (cur != null) {
int newIndex = cur.key % newArr.length;
Node curN = cur.next;
cur.next = newArr[newIndex];
newArr[newIndex] = cur;
cur = curN;
}
}
arr = newArr;
}
//检测负载因子是否超过0.75,超过就扩容
private double doLoadFactor() {
return usedSize * 1.0 / arr.length;
}
//获得值
public int getVal(int key) {
int index = key % arr.length;
Node cur = arr[index];
while (cur != null) {
if(cur.key == key) {
return cur.val;
}
}
return -1;
}
}
下面是带泛型的写法,省去了扩容
public class HashBuck2<K, V> {
static class Node<K, V> {
public K key;
public V val;
public Node<K, V> next;
public Node(K key , V val) {
this.key = key;
this.val = val;
}
}
public Node<K, V>[] arr = (Node<K, V>[]) new Node[10];
public int usedSize;
public static final double DEFAULT_LOAD_FACTOR = 0.75f;
public void push(K key, V val) {
int hashCode = key.hashCode();
int index = hashCode % arr.length;
Node<K, V> cur = arr[index];
while (cur != null) {
if(cur.key.equals(key)) {
cur.val = val;
return;
}
cur = cur.next;
}
Node<K, V> node = new Node<>(key, val);
node.next = arr[index];
arr[index] = node;
usedSize++;
}
public V getVal(K key) {
int hashCode = key.hashCode();
int index = hashCode % arr.length;
Node<K, V> cur = arr[index];
while (cur != null) {
if(cur.key.equals(key)) {
return cur.val;
}
cur = cur.next;
}
return null;
}
}
分析:
虽然哈希表一直在和冲突做斗争,但在实际使用过程中,我们认为哈希表的冲突率是不高的,冲突个数是可控的, 也就是每个桶中的链表的长度是一个常数,所以,通常意义下,我们认为哈希表的插入/删除/查找时间复杂度是O(1)
java源代码中:
java 中计算哈希值实际上是调用的类的 hashCode 方法,进行 key 的相等性比较是调用 key 的 equals 方 法。所以如果要用自定义类作为 HashMap 的 key 或者 HashSet 的值,必须覆写 hashCode 和 equals 方 法,而且要做到 equals 相等的对象,hashCode 一定是一致的。

7640

被折叠的 条评论
为什么被折叠?



