faiss库中ivf-sq(ScalarQuantizer,标量量化)代码解读-1

简介

Faiss 是一个高效的向量相似性搜索库,支持多种量化方法,用于压缩高维向量以加速搜索并降低存储成本。Faiss 提供了 标量量化(Scalar Quantization, SQ) 和 残差量化(Residual Quantization, RQ) 等多种量化算法。以下是对 Faiss 中这些量化方法的详细介绍:

标量量化、残差量化和层级残差量化

  1. Faiss 中的量化简介
  • 目标:

    • 将高维向量压缩为更小的表示(低位编码),从而降低存储需求并提高搜索效率。
    • 支持距离度量(如 L2 距离或内积)的近似计算。
  • 分类:

    • 标量量化(Scalar Quantization, SQ):对每个向量分量独立量化。
    • 残差量化(Residual Quantization, RQ):对向量的残差进行分级量化。
    • 乘积量化(Product Quantization, PQ):将向量分解为子向量,分别量化。
    • 层级残差量化(Optimized Product Quantization, OPQ):对 PQ 进行优化。
  • 用途:

    • 构建索引(如 IVF-SQ、IVF-RQ)。
    • 索引压缩(减少存储占用)。
    • 快速搜索和距离计算。
  1. 标量量化(Scalar Quantization, SQ)
  • 原理

    • 核心思想:将每个向量分量独立映射到离散的有限级别,例如将浮点数(32 位)压缩为 8-bit 或 4-bit 表示。
  • 实现方式:

    • 对每个分量的值范围进行离散划分(如均匀量化或非均匀量化)。
    • 每个分量值被量化为一个离散的整数(量化码)。
  • 流程

  • 训练阶段:

    • 根据训练数据,学习每个分量的离散级别(如值范围的划分)。
    • 支持不同的量化方式:
    • 均匀量化:等间距划分值范围。
    • 非均匀量化:根据数据分布调整划分。
  • 编码阶段:将每个输入向量分量映射到对应的量化级别。输出是一个编码数组,每个分量占用 code_size位。

  • 解码阶段ÿ

### 使用 `bge-large-zh-v1.5` 模型在 FAISS 中构建索引 为了在 FAISS 中使用 `BAAI-bge-large-zh-v1.5` 模型,需先加载该模型并生成文档的向量表示。此过程涉及通过 Hugging Face 的 Transformers 来获取预训练模型,并利用其编码器将文本转换成高维向量[^1]。 #### 加载模型与 tokenizer ```python from transformers import AutoTokenizer, AutoModel tokenizer = AutoTokenizer.from_pretrained("BAAI/bge-large-zh-v1.5") model = AutoModel.from_pretrained("BAAI/bge-large-zh-v1.5") ``` #### 文本转为向量 对于每篇文档,应用上述加载好的模型和分词工具将其转化为固定长度的向量形式: ```python import torch def encode_text(texts): inputs = tokenizer.batch_encode_plus( texts, padding=True, truncation=True, max_length=512, return_tensors='pt' ) with torch.no_grad(): outputs = model(**inputs) embeddings = outputs.last_hidden_state[:,0,:].numpy() # 取 [CLS] token embedding 或其他聚合方式 return embeddings ``` #### 构建 FAISS 索引 一旦获得了所有文档对应的向量之后,则可以创建一个高效的近似最近邻 (ANN) 查找结构——即 FAISS 索引。这里展示了一个简单的例子,说明如何初始化 FlatL2 类型的索引以及添加数据点到其中: ```python import faiss dimensionality = embeddings.shape[1] index = faiss.IndexFlatL2(dimensionality) # 将浮点数类型的 numpy 数组加入索引中 faiss.normalize_L2(embeddings.astype('float32')) index.add(embeddings.astype('float32')) print(f'Total number of vectors indexed: {index.ntotal}') ``` 需要注意的是,在实际应用场景下可能还需要考虑更复杂的索引类型(如 IVF、HNSW),以便更好地平衡查询速度与精度之间的关系;同时也应该根据具体需求调整参数配置以达到最优性能表现。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

haven-852

你的鼓励是对我最大的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值