文本相似度-bm25算法原理及实现

本文深入探讨了BM25算法的原理与应用,这是一种广泛用于信息检索和搜索排名的算法。文章详细解释了BM25如何通过计算查询词与文档的相关性得分来提升搜索结果的准确性,包括语素分析、IDF权重计算以及相关性得分的公式。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

原理

BM25算法,通常用来作搜索相关性平分。一句话概况其主要思想:对Query进行语素解析,生成语素qi;然后,对于每个搜索结果D,计算每个语素qi与D的相关性得分,最后,将qi相对于D的相关性得分进行加权求和,从而得到Query与D的相关性得分。
BM25算法的一般性公式如下:

  

其中,Q表示Query,qi表示Q解析之后的一个语素(对中文而言,我们可以把对Query的分词作为语素分析,每个词看成语素qi。);d表示一个搜索结果文档;Wi表示语素qi的权重;R(qi,d)表示语素qi与文档d的相关性得分。

下面我们来看如何定义Wi。判断一个词与一个文档的相关性的权重,方法有多种,较常用的是IDF。这里以IDF为例,公式如下:

其中,N为索引中的全部文档数,n(qi)为包含了qi的文档数。

根据IDF的定义可以看出,对于给定的文档集合,包含了qi的文档数越多,qi的权重则越低。也就是说,当很多文档都包含了qi时,qi的区分度就不高,因此使用qi来判断相关性时的重要度就较低。

我们再来看语素qi与文档d的相关性得分R(qi,d)。首先来看BM25中相关性得分的一般形式:

其中,k1,k2,b为调节因子,通常根据经验设置,一般k1=2,b=0.75;fi为qi在d中的出现频率,qfi为qi在Query中的出现频率。dl为文档d的长度,avgdl为所有文档的平均长度。由于绝大部分情况下,qi在Query中只会出现一次,即qfi=1,因此公式可以简化为:

从K的定义中可以看到,参数b的作用是调整文档长度对相关性影响的大小。b越大,文档长度的对相关性得分的影响越大,反之越小。而文档的相对长度越长,K值将越大,则相关性得分会越小。这可以理解为,当文档较长时,包含qi的机会越大,因此,同等fi的情况下,长文档与qi的相关性应该比短文档与qi的相关性弱。
综上,BM25算法的相关性得分公式可总结为:

从BM25的公式可以看到,通过使用不同的语素分析方法、语素权重判定方法,以及语素与文档的相关性判定方法,我们可以衍生出不同的搜索相关性得分计算方法,这就为我们设计算法提供了较大的灵活性。

代码实现

import math
import jieba


# 测试文本
text = '''
自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。
它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。
自然语言处理是一门融语言学、计算机科学、数学于一体的科学。
因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,
所以它与语言学的研究有着密切的联系,但又有重要的区别。
自然语言处理并不是一般地研究自然语言,
而在于研制能有效地实现自然语言通信的计算机系统,
特别是其中的软件系统。因而它是计算机科学的一部分。
'''

class BM25(object):
    
    def __init__(self, docs):
        self.D = len(docs)
        self.avgdl = sum([len(doc)+0.0 for doc in docs]) / self.D
        self. docs = docs
        self.f = [] # 列表的每一个元素是一个dict,dict存储着一个文档中每个词的出现次数
        self.df = {} # 存储每个词及出现了该词的文档数量
        self.idf = {} # 存储每个词的idf值
        self.k1 = 1.5
        self.b = 0.75
        self.init()
        
    def init(self):
        for doc in self.docs:
            tmp = {}
            for word in doc:
                tmp[word] = tmp.get(word, 0) + 1 # 存储每个文档中每个词的出现次数
            self.f.append(tmp)
            for k in tmp.keys():
                self.df[k] = self.df.get(k, 0) + 1
                
        for k,v in self.df.items():
            self.idf[k] = math.log(self.D-v+0.5)-math.log(v+0.5)
            
    def sim(self, doc, index):
        score = 0
        for word in doc:
            if word not in self.f[index]:
                continue
            d = len(self.docs[index])
            score += (self.idf[word]*self.f[index][word]*(self.k1+1)
                     / (self.f[index][word]+self.k1*(1-self.b+self.b*d / self.avgdl)))
            
        return score
    
    def simall(self, doc):
        scores = []
        for index in range(self.D):
            score = self.sim(doc, index)
            scores.append(score)
        return scores
    
if __name__ == '__main__':
    sents = text.split()
    doc = []
    for sent in sents:
        words = list(jieba.cut(sent))
        
        doc.append(words)
    print(doc)
    s = BM25(doc)
    print(s.f)
    print(s.idf)
    print(s.simall(['自然语言','计算机科学','领域','人工智能','领域']))

分段再分词结果

[['自然语言', '处理', '是', '计算机科学', '领域', '与', '人工智能', '领域', '中', '的', '一个', '重要', '方向', '。'], 
['它', '研究', '能', '实现', '人', '与', '计算机', '之间', '用', '自然语言', '进行', '有效', '通信', '的', '各种', '理论', '和', '方法', '。'], 
['自然语言', '处理', '是', '一门', '融', '语言学', '、', '计算机科学', '、', '数学', '于', '一体', '的', '科学', '。'], 
['因此', ',', '这一', '领域', '的', '研究', '将', '涉及', '自然语言', ',', '即', '人们', '日常', '使用', '的', '语言', ','], 
['所以', '它', '与', '语言学', '的', '研究', '有着', '密切', '的', '联系', ',', '但', '又', '有', '重要', '的', '区别', '。'], 
['自然语言', '处理', '并', '不是', '一般', '地', '研究', '自然语言', ','],
 ['而', '在于', '研制', '能', '有效', '地', '实现', '自然语言', '通信', '的', '计算机系统', ','], 
['特别', '是', '其中', '的', '软件系统', '。', '因而', '它', '是', '计算机科学', '的', '一部分', '。']]

s.f

列表的每一个元素是一个dict,dict存储着一个文档中每个词的出现次数

[{'自然语言': 1, '处理': 1, '是': 1, '计算机科学': 1, '领域': 2, '与': 1, '人工智能': 1, '中': 1, '的': 1, '一个': 1, '重要': 1, '方向': 1, '。': 1},
 {'它': 1, '研究': 1, '能': 1, '实现': 1, '人': 1, '与': 1, '计算机': 1, '之间': 1, '用': 1, '自然语言': 1, '进行': 1, '有效': 1, '通信': 1, '的': 1, '各种': 1, '理论': 1, '和': 1, '方法': 1, '。': 1}, 
{'自然语言': 1, '处理': 1, '是': 1, '一门': 1, '融': 1, '语言学': 1, '、': 2, '计算机科学': 1, '数学': 1, '于': 1, '一体': 1, '的': 1, '科学': 1, '。': 1}, 
{'因此': 1, ',': 3, '这一': 1, '领域': 1, '的': 2, '研究': 1, '将': 1, '涉及': 1, '自然语言': 1, '即': 1, '人们': 1, '日常': 1, '使用': 1, '语言': 1},
 {'所以': 1, '它': 1, '与': 1, '语言学': 1, '的': 3, '研究': 1, '有着': 1, '密切': 1, '联系': 1, ',': 1, '但': 1, '又': 1, '有': 1, '重要': 1, '区别': 1, '。': 1},
 {'自然语言': 2, '处理': 1, '并': 1, '不是': 1, '一般': 1, '地': 1, '研究': 1, ',': 1}, {'而': 1, '在于': 1, '研制': 1, '能': 1, '有效': 1, '地': 1, '实现': 1, '自然语言': 1, '通信': 1, '的': 1, '计算机系统': 1, ',': 1}, 
{'特别': 1, '是': 2, '其中': 1, '的': 2, '软件系统': 1, '。': 2, '因而': 1, '它': 1, '计算机科学': 1, '一部分': 1}]

s.idf
存储每个词的idf值

{'自然语言': -0.9555114450274362, '处理': 0.4519851237430572, '是': 0.4519851237430572, '计算机科学': 0.4519851237430572, '领域': 0.9555114450274362, '与': 0.4519851237430572, '人工智能': 1.6094379124341003, '中': 1.6094379124341003, '的': -1.6094379124341003, '一个': 1.6094379124341003, '重要': 0.9555114450274362, '方向': 1.6094379124341003, '。': -0.4519851237430572, '它': 0.4519851237430572, '研究': 0.0, '能': 0.9555114450274362, '实现': 0.9555114450274362, '人': 1.6094379124341003, '计算机': 1.6094379124341003, '之间': 1.6094379124341003, '用': 1.6094379124341003, '进行': 1.6094379124341003, '有效': 0.9555114450274362, '通信': 0.9555114450274362, '各种': 1.6094379124341003, '理论': 1.6094379124341003, '和': 1.6094379124341003, '方法': 1.6094379124341003, '一门': 1.6094379124341003, '融': 1.6094379124341003, '语言学': 0.9555114450274362, '、': 1.6094379124341003, '数学': 1.6094379124341003, '于': 1.6094379124341003, '一体': 1.6094379124341003, '科学': 1.6094379124341003, '因此': 1.6094379124341003, ',': 0.0, '这一': 1.6094379124341003, '将': 1.6094379124341003, '涉及': 1.6094379124341003, '即': 1.6094379124341003, '人们': 1.6094379124341003, '日常': 1.6094379124341003, '使用': 1.6094379124341003, '语言': 1.6094379124341003, '所以': 1.6094379124341003, '有着': 1.6094379124341003, '密切': 1.6094379124341003, '联系': 1.6094379124341003, '但': 1.6094379124341003, '又': 1.6094379124341003, '有': 1.6094379124341003, '区别': 1.6094379124341003, '并': 1.6094379124341003, '不是': 1.6094379124341003, '一般': 1.6094379124341003, '地': 0.9555114450274362, '而': 1.6094379124341003, '在于': 1.6094379124341003, '研制': 1.6094379124341003, '计算机系统': 1.6094379124341003, '特别': 1.6094379124341003, '其中': 1.6094379124341003, '软件系统': 1.6094379124341003, '因而': 1.6094379124341003, '一部分': 1.6094379124341003}

s.simall(['自然语言', '计算机科学', '领域', '人工智能', '领域'])
['自然语言', '计算机科学', '领域', '人工智能', '领域']与每一句的相似度

[3.895651571786456, -0.8421456803631642, -0.49778267503398693, 0.8904407731438475, 0, -1.5575735154052253, -1.0394685176030687, 0.475773814466376]

 

参考

https://www.jianshu.com/p/1e498888f505

 


 

<think>好的,用户想了解如何使用TF-IDF算法计算文本之间的相似度。我需要先回忆一下TF-IDF的基本概念和步骤。首先,TF-IDF是Term Frequency-Inverse Document Frequency的缩写,用于评估一个词在文档中的重要程度。词频(TF)衡量的是某个词在文档中出现的频率,而逆文档频率(IDF)则是衡量该词的普遍重要性,出现在太多文档中的词IDF值会较低。 接下来,计算文本相似度通常需要将文本转换为向量形式,TF-IDF向量就是这个过程的结果。然后,可以使用余弦相似度来比较两个向量的夹角,夹角越小,相似度越高。我记得用户提供的引用里提到了余弦相似度的应用,特别是引用[2]中的例子,使用TF-IDF矩阵和余弦相似度矩阵来计算文本之间的相似度。 用户的问题可能希望得到具体的步骤解释,可能还需要代码示例。根据系统指令,需要确保行内数学表达式使用$...$格式,例如TF的计算公式是$TF(t,d) = \frac{\text{词t在文档d中出现的次数}}{\text{文档d的总词数}}$,而IDF的计算公式是$IDF(t,D) = \log\left(\frac{\text{总文档数N}}{\text{包含词t的文档数} + 1}\right)$。组合起来的TF-IDF值就是两者的乘积。 然后,向量化后的文本需要通过余弦相似度来计算相似度,公式是$\cos(\theta) = \frac{\mathbf{A} \cdot \mathbf{B}}{||\mathbf{A}|| \cdot ||\mathbf{B}||}$。这部分需要解释清楚,可能需要用示例说明如何计算。 另外,引用[3]提到了BM25算法,作为TF-IDF的改进,但用户的问题集中在TF-IDF,所以可能不需要深入BM25,但可以作为相关问题提到。 还需要注意用户的引用中提到的一些库,比如tf-idf-similarity库,可能用户对实际应用感兴趣,所以提供Python代码示例会有帮助。例如使用sklearn的TfidfVectorizer和cosine_similarity函数,如引用[2]中的代码所示。 需要确保回答结构清晰,分步骤说明,并包含代码示例。同时,根据系统指令,生成相关问题,比如优化方法、与其他算法的比较等。同时,引用正确的来源,比如在解释TF-IDF和余弦相似度时引用提供的引用[1]、[2]、[3]。 最后检查是否符合格式要求,数学公式是否正确使用$或$$,代码块是否用```python标注,以及是否有相关问题部分。确保所有引用标识正确添加,例如在提到余弦相似度时引用[^2],在提到参数调整时引用[^3]。</think>要使用TF-IDF算法计算文本相似度,需依次完成以下步骤: ### 一、算法原理说明 1. **词频(TF)**:计算词语在单个文档中的频率 $$ TF(t,d) = \frac{\text{词t在文档d中出现的次数}}{\text{文档d的总词数}} $$ 2. **逆文档频率(IDF)**:评估词语在整个语料库中的重要性 $$ IDF(t,D) = \log\left(\frac{N}{n_t + 1}\right) $$ 其中$N$为总文档数,$n_t$为包含词t的文档数[^1] 3. **TF-IDF值**:综合指标 $$ TF\text{-}IDF(t,d) = TF(t,d) \times IDF(t,D) $$ ### 二、实施步骤 1. **文本预处理**: - 分词处理(中文需使用分词工具) - 去除停用词 - 词干提取(英文场景) 2. **向量化处理**: 使用TF-IDF向量将文本转换为数值矩阵,每行对应一个文档的向量表示[^2] 3. **相似度计算**: 采用余弦相似度衡量向量间夹角 $$ \cos(\theta) = \frac{\mathbf{A} \cdot \mathbf{B}}{||\mathbf{A}|| \cdot ||\mathbf{B}||} $$ ### 三、Python实现示例 ```python from sklearn.feature_extraction.text import TfidfVectorizer from sklearn.metrics.pairwise import cosine_similarity # 示例文档集 documents = [ "自然语言处理是人工智能的重要领域", "机器学习需要大量数据进行训练", "深度学习在计算机视觉中应用广泛" ] # 创建TF-IDF向量器 vectorizer = TfidfVectorizer() tfidf_matrix = vectorizer.fit_transform(documents) # 计算余弦相似度矩阵 similarity_matrix = cosine_similarity(tfidf_matrix) print("文档相似度矩阵:") print(similarity_matrix) ``` ### 四、结果解读 输出矩阵中: - 对角线值始终为1(自相似度- 元素[0,1]表示第1篇与第2篇文档的相似度 - 值域[0,1],越接近1表示相似度越高[^2] ### 五、优化建议 1. 调整TF-IDF参数(最大特征数、停用词表等) 2. 结合词性过滤(保留名词、动词等实词) 3. 使用BM25改进算法(控制词频影响范围)[^3]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值