最近邻搜索之乘积量化(Product Quantizer)理解(一)

简介

Product Quantizer是由Herv´e J´egou等人2011年在IEEEE上发表的论文《Product Quantization for Nearest Neighbor Search》中提出来的。它的提出是为了在内存和效率之间求得一个平衡,既保证图像索引结构需要的内存足够,又使得检索质量和速度比较好。对于任何基于固定维数特征的事物,它可以应用到其索引结构的建立及检索上。它属于ANN(approximate nearest neighbor)算法。与它相关的算法有E2LSH(Euclidean Locality-Sensitive Hashing), KD-trees,K-means。

主要思想

Product Quantizer翻译过来是乘积量化,从字面理解大概包括了两个过程特征的分组量化过程和类别的笛卡尔积过程。假设有一个数据集,那么K-means的做法就是给定类别数目K,目标函数是所有样本到类中心的距离和最小,迭代计算优化目标函数,得到K个类中心和每个样本所属的类别。目标函数不变,乘积量化的做法是:
(1)数据集为K个类别,每个样本以一个vector的形式表示,维数为d,将vector的各个分量分成m组。
(2)将所有vector的某组分量作为数据集,采用k-means算法得到这里写图片描述个类中心,运行m次k-means算法,则每组都有这里写图片描述个类中心,记这这里写图片描述个类中心为一个集合。
(3)将上述得到的m个集合做笛卡尔积,就得到整个数据集的类中心了。

下图辅助理解。
这里写图片描述
其实只要联系欧式空间中点的笛卡尔积就很好理解了。

举个栗子

这里写图片描述

注:例子中示意图引用自Jae-Pil Heo的论文《Distance Encoded Product Quantization》
转载请注明作者和出处http://blog.youkuaiyun.com/CHIERYU 未经允许请勿用于商业用途

### 向量检索概述 向量检索是种基于相似性的数据查询技术,旨在高效地找到最接近给定查询向量的数据项。该过程通常涉及将对象表示为高维空间中的点,并通过计算这些点之间的距离来衡量它们的相似程度[^1]。 ### 距离度量方式 对于两个向量间的相似性评估,常用的距离度量有欧氏距离、余弦相似性和曼哈顿距离等。不同的应用场景可能适合不同类型的距离函数,在实际操作中需依据具体需求选取合适的度量标准。 ### 近似最近邻(ANN)搜索策略 由于精确匹配往往耗时过长,特别是在处理大规模数据集时,因此近似最近邻(Approximate Nearest Neighbor, ANN)成为了种高效的解决方案。其核心理念是在可接受误差范围内快速定位到与目标最为相近的组候选者而非单最优解。 #### KD-Tree 和 Annoy 树结构方法 这类索引构建方案利用多叉树形结构递归分割特征空间,从而加速局部区域内的样本比较效率。例如KD-Trees按照各维度交替切分节点;而Annoy则采用随机超平面划分的方式形成森林状分布以增强鲁棒性。 ```python from annoy import AnnoyIndex f = 40 # 特征长度 t = AnnoyIndex(f, 'angular') # 使用角距作为度量指标 for i in range(n_items): t.add_item(i, vector[i]) t.build(10) # 构建10棵树提高命中率 ``` #### LSH 局部敏感哈希机制 Hashing-based的方法如Locality-Sensitive Hashing (LSH),则是通过对原始输入施加系列散列变换使得彼此间存在较强关联的对象更有可能映射至相同的桶内,进而简化后续筛选流程。 ```python import numpy as np class MinHash(object): def __init__(self, num_perm=128): self.num_perm = num_perm ... def hash(self, data_point): hashes = [] for _ in range(self.num_perm): a, b = np.random.randint(...), np.random.randint(...) h_val = ((a * int.from_bytes(data_point.encode(), byteorder='big')) + b) % p hashes.append(h_val) return min(hashes) minhasher = MinHash() hashed_value = minhasher.hash('example') print(hashed_value) ``` #### PQ 乘积量化编码体系 Product Quantization (PQ)属于矢量压缩范畴的技术之,它先对整个特征域实施聚类分析得到若干子区间(即码本),再分别针对每个部分执行粗粒度描述符编码最终组合成完整的紧凑表征形式以便存储传输并支持高速查重运算。 ```python import faiss d = 64 # 维数 nb = 1000 # 数据总量 nlist = 10 # 粗略分区数量 m = 8 # 子区段数目 k = 4 # 每个子区内保留的最佳匹配计数 quantizer = faiss.IndexFlatL2(d) # 定义底层索引器 index_ivfpq = faiss.IndexIVFPQ(quantizer, d, nlist, m, k) xt = ... # 训练样本集合 xb = ... # 待编目条目列表 index_ivfpq.train(xt) index_ivfpq.add(xb) ``` #### HNSW 高效导航小世界模型 Hierarchical Navigable Small World graphs(HNSW)借鉴社交网络理论设计出种层次化的连通图架构用于优化路径规划问题。此算法不仅能够维持较低的时间复杂度而且具备良好的扩展性能适用于动态更新场景下的增量式维护作业。 ```python hnswlib_index_params = {'M': 16, 'post': 0, 'efConstruction': 100} search_params = {'ef': 50} # 查询阶段参数配置 dim = 128 # 输入特征尺寸 num_elements = 1000 # 总记录规模 p = hnswlib.Index(space='l2', dim=dim) p.init_index(max_elements=num_elements, **hnswlib_index_params) data_labels = list(range(num_elements)) p.add_items(database_vectors, data_labels) nearest_neighbors_ids, distances_to_them = p.knn_query(query_vector, k=5) ``` ### 开源工具库推荐 在众多可用资源当中,Facebook开发维护的Faiss堪称业界标杆级产品,提供了丰富的API接口覆盖多种编程语言环境并且内置大量预训练好的模型便于开发者直接调用开展实验研究工作[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值