BM25-Sparse(BM25S)快速入门指南和技术文档

BM25-Sparse(BM25S)快速入门指南和技术文档

bm25s BM25S is an ultra-fast lexical search library that implements BM25 using scipy bm25s 项目地址: https://gitcode.com/gh_mirrors/bm/bm25s

安装指南

核心依赖安装

你可以通过pip轻松安装bm25s库:

pip install bm25s

高级功能安装

为了充分利用.stemming进行词干提取以提高检索效果,可以安装额外依赖项:

pip install bm25s[full] PyStemmer jax[cpu]

这里PyStemmer用于词干提取,而jax则用于提升部分操作的速度。

使用说明

快速启动

bm25s旨在简化文本检索任务,下面是基本用法示例:

import bm25s

# 示例语料库
corpus = [
    "猫是喜欢咕噜的猫科动物。",
    "狗,人类的好朋友,爱玩耍。",
    "鸟,一种美丽的会飞的动物。",
]

# 创建BM25模型并索引语料库
retriever = bm25s.BM25()
retriever.index(bm25s.tokenize(corpus))

# 查询
query = "鱼像猫一样咕噜吗?"
query_tokens = bm25s.tokenize(query)

# 获取查询结果
results, scores = retriever.retrieve(query_tokens, k=2)
for rank, (doc_id, score) in enumerate(zip(results[0], scores[0]), start=1):
    print(f"排名{rank} (得分: {score:.2f}): 文档{doc_id}")

索引与保存

你还可以保存和加载你的索引以便重用:

# 保存索引
retriever.save("我的BM25S索引")

# 加载索引
loaded_retriever = bm25s.BM25.load("我的BM25S索引")

API使用文档

初始化BM25模型
retriever = bm25s.BM25(k1=值, b=值, method="方法名")

其中k1b是BM25算法的参数,method可选值包括不同的BM25变体如"robertson", "atire", "bm25l", "bm25+", 和 "lucene"

索引语料库
retriever.index(tokenized_corpus)
查询与返回结果
results, scores = retriever.retrieve(query_tokens, corpus=原始语料库, k=2)
自定义设置
  • 可定制token化过程,包括停用词列表和词干处理。
  • 支持内存映射(mmap=True)加载大型索引以节省内存。

项目特点

  • 速度:利用稀疏矩阵加速计算,显著超越同类库。
  • 兼容性:仅依赖Numpy和Scipy,易集成到Python生态系统。
  • 灵活性:支持多种BM25实现变体,自定义IDF方法。
  • 效率:提供存储分数以加快查询响应时间。
  • 简洁性:简单的API设计让新手也能快速上手。
  • 扩展性:无缝整合Hugging Face模型仓库,便于分享模型。

记住,使用过程中查看官方文档和GitHub仓库中的实例代码将给你更深入的理解和应用启示。通过这些步骤,你应该能够高效地利用bm25s进行文本检索任务了。

bm25s BM25S is an ultra-fast lexical search library that implements BM25 using scipy bm25s 项目地址: https://gitcode.com/gh_mirrors/bm/bm25s

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

### BM25与稠密及稀疏向量表示的关系 #### BM25简介 BM25是一种广泛使用的概率检索模型,特别擅长于处理依赖具体短语的任务。该算法通过计算查询项文档中词语频率之间的关系来进行排名,具有良好的精确匹配能力可解释性[^2]。 #### 稀疏向量表示(Sparse Vector Representations) Sparse Retrieval Models利用词级别的特征进行索引检索操作,能够实现精准的关键词匹配并保持较高的透明度。这类方法主要包括四种类型:term re-weighting、document expansion、expansion + re-weighting以及sparse representation learning。其中,term re-weighting旨在调整传统TF-IDF加权方案;document expansion则试图引入额外的相关词汇以增强原始文本表达力;而后者尝试在低维隐含空间里捕捉查询同文档间潜在联系[^5]。 #### 密集向量表示(Dense Vector Representations) 不同于仅关注显式共现模式的传统方式,Dense Retrieval Methods借助神经网络框架下的embedding技术自动习得输入序列背后深层次含义表征形式。这些连续型分布式的向量化描述往往具备更强鲁棒性迁移能力,可以在跨领域任务之间取得较为一致的表现水平。然而值得注意的是像DeepCT 或者SPARTA这样的基于Transformer架构的方法尽管能在特定范围内达到优异成绩却难以有效应对未曾见过的新颖样本集合[^1]。 #### 对比分析 当对比BM25与上述两类现代矢量化手段时发现,Sparse models继承了前者关于局部敏感性的优点同时也克服了一定局限性;与此同时.Dense approaches凭借强大的泛化特性弥补了前二者对于复杂语境理解不足之处。因此实践中常考虑融合多种机制优势构建hybrid systems从而兼顾效率准确性两方面需求[^3]。 ```python # Python伪代码展示如何组合BM25与密集/稀疏向量表示 from some_library import DenseRetrievalModel, SparseRetrievalModel, Bm25Ranker def hybrid_search(query): bm25_scores = Bm25Ranker.score_documents(query) sparse_scores = SparseRetrievalModel.get_similarity_scores(query) dense_scores = DenseRetrievalModel.calculate_embedding_distances(query) final_rankings = merge_strategies(bm25_scores, sparse_scores, dense_scores) return final_rankings ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

乌绮绚Trix

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值