FAISS 原理 使用方法 记录

FAISS通过PCA降维和PQ编码实现高效向量搜索。PCA用于降低数据维度,保留主要特征;PQ则将高维向量分解为低维空间的笛卡尔积,利用量化码本压缩索引,大幅减少存储需求。FAISS提供对称和非对称距离计算方法,支持快速相似搜索。文章介绍了FAISS的使用,并提供了下载链接。


Faiss是Facebook的AI团队开源的一套用于做聚类或者相似性搜索的软件库,底层是用C++实现。

Faiss几乎可以在10ms内完成百万*百万以上的向量距离计算,它是怎么实现的呢?

原理

向量计算是一个最经典的时空优化问题,在查询过程中建立更多地索引固然可以提升查询速度,但是却有占据了存储空间,我们希望系统可以即减少索引又能提升查询性能。

为了得到时间和空间的最优,Faiss使用了PCA和PQ两个手段进行向量压缩和编码,当然还有其它的一些优化手段,但是PCA和PQ是最为核心的。

PCA降维

PCA(Principal Component Analysis),PAC的作用主要是降低数据集的维度,然后挑选出主要的特征。

PCA的主要思想是移动坐标轴,找到方差最大的方向上的特征值,什么叫方差最大的方向的特征值呢。就像下图中的曲线B,一样,它的覆盖范围最广。

在这里插入图片描述
基本步骤:
(1)首先计算数据集的协方差矩阵
(2)计算协方差矩阵的特征值和特征向量
(3)保留最重要的n个特征

PQ编码

Product quantization(乘积量化PQ),PQ是一种建立索引的方式。这里的乘积是指笛卡尔积(Cartesian product),意思是指把原来的向量空间分解为若干个低维向量空间的笛卡尔积,并对分解得到的低维向量空间分别做量化(quantization)。这样每个向量就能由多个低维空间的量化code组合表示。

假设原始向量是1024维,可以把它拆解成8个子向量,每个子向量128维。

### FAISS库中倒排索引的工作原理 FAISS(Facebook AI Similarity Search)是一种由Facebook开发的高效相似性搜索和聚类库,主要用于处理大规模向量数据库并提供快速的近邻搜索。在其内部实现中,倒排文件索引起到了至关重要的作用。 #### 1. 倒排索引的作用 在FAISS中,倒排索引被用来加速查询过程。传统的倒排索引通常用于文本搜索引擎中,记录的是某个单词出现在哪些文档中。而在FAISS中,这种概念被扩展到了高维空间中的向量表示上。具体来说,FAISS会先对输入的数据集进行量化操作,将其映射到离散的空间中形成码本[^3]。这些离散化的表示随后会被存储在一个倒排列表中,以便后续能够快速定位与目标向量相近的候选集合。 #### 2. 实现机制 为了提高效率,FAISS采用了多种策略来构建其倒排索引: - **粗量化器 (Coarse Quantizer)** 这一阶段的主要目的是将整个数据空间划分为若干个子区域或者簇(cluster),每一个簇对应着一个代表性的中心点(center)。当给定一个新的待查问项(query item)时,首先计算该询问属于哪个最接近的簇,并仅限于此范围内寻找可能匹配的对象而不是遍历全部数据条目[^4]。 - **细粒度编码(Fine-grained Encoding)** 对落入同一簇内的元素进一步细化描述方式——即采用更精确但同时也更加紧凑的形式对其进行重新表达。比如IVFADC(indexed vector quantization with asymmetric distance computation)方案就结合了产品量化(Product Quantization,PQ)[^5]技术来进行这样的转换工作。 - **压缩存储** 考虑到底层硬件资源限制因素的影响,在实际部署过程中往往还需要考虑如何有效地减少内存占用情况下的性能损失问题。因此除了基本的功能需求之外,FAISS还特别注重对于最终得到的结果序列采取适当程度上的位宽缩减措施以达到节省空间的目的同时不影响太多检索质量。 #### 3. 查询流程概述 利用上述提到的各种组件共同协作完成一次完整的最近邻居查找任务大致遵循如下几个步骤: - 利用预训练好的粗量化模型确定当前请求应该访问哪一部分分区; - 查阅相应位置处维护的那个短名单清单获取初步筛选出来的潜在候选项群组成员编号列表; - 根据之前保存下来的精细特征信息逐一遍历对比得出最优解答案。 ```python import faiss d = 64 # dimension of vectors nb = 1000 # number of training vectors nq = 10 # number of query points np.random.seed(1234) # make reproducible xb = np.random.random((nb, d)).astype('float32') xq = np.random.random((nq, d)).astype('float32') index = faiss.IndexFlatL2(d) # build the index assert index.is_trained index.add(xb) # add vectors to index k = 4 # we want 4 nearest neighbors D, I = index.search(xq, k) # actual search print(I[:5]) # neighbors of the first five queries ```
评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值