DeepSeek BLEU和ROUGE(Recall)的计算

以下是 BLEU Score (Bilingual ​Evaluation ​Understudy)和 ROUGE Score(​Recall-Oriented ​Understudy for ​Gisting ​Evaluation) 的原生Python实现(不依赖第三方库),通过分步计算逻辑和示例详细说明。


一、BLEU Score 实现

核心逻辑
  1. n-gram匹配:计算候选文本和参考文本的n-gram匹配数(截断到参考文本中最大出现次数)。
  2. 精确度计算:各n-gram的匹配数除以候选文本n-gram总数。
  3. 几何平均:对1-gram到4-gram的精确度取几何平均。
  4. 长度惩罚:候选文本过短时施加惩罚。
代码实现
import math

def get_ngrams(text, n):
    """生成n-gram列表"""
    return [tuple(text[i:i+n]) for i in range(len(text)-n+1)]

def bleu_score(candidate, reference, max_n=4):
    """计算BLEU分数(单参考文本简化版)"""
    candidate = candidate.split()
    reference = reference.split()
    
    # 长度惩罚
    c_len = len(candidate)
    r_len = len(reference)
    bp = 1.0 if c_len > r_len else math.exp(1 - r_len / c_len) if c_len !=0 else 0.0

    # 计算各n-gram的精确度
    precisions = []
    for n in range(1, max_n+1):
        # 生成候选和参考的n-gram
        cand_ngrams = get_ngrams
<think>好的,用户想了解如何计算BLEUROUGE分数的示例代码公式。我需要先回顾一下这两个指标的基本原理,然后结合提供的引用内容来组织回答。 首先,BLEU指标主要用于机器翻译,基于n-gram的精确率,并引入短句惩罚。根据引用[3],BLEU-N的计算公式是累乘n-gram精确率的几何平均,再乘以短句惩罚因子。用户可能需要一个具体的计算步骤示例,比如n=2的情况,如何统计候选文本参考文本中的n-gram出现次数,然后计算精确率。同时,引用[4]提到METEOR也涉及BLEU的精确率部分,但这里用户主要关注BLEU,所以需要明确区分。 接下来是ROUGE指标,引用[2]说明ROUGE-NROUGE-L的区别。ROUGE-N侧重召回率,而ROUGE-L基于最长公共子序列。引用[1]中的代码示例使用了Python的rouge库,可以展示如何调用该库计算ROUGE分数。需要解释ROUGE-1、ROUGE-2ROUGE-L的具体含义,比如ROUGE-1是unigram的召回率,ROUGE-L考虑句子结构的匹配程度。 用户可能需要对比这两个指标的不同,比如BLEU侧重精确率,ROUGE侧重召回率。此外,示例代码部分需要确保正确性,比如引用[1]中的代码是否正确,是否需要调整。例如,rouge.get_scores的用法是否正确,输出的格式是否清晰。 还要注意公式的呈现方式,根据用户提供的系统级指令,数学公式必须用$...$或$$...$$格式。例如,BLEU的公式需要正确使用LaTeX语法,特别是累乘指数部分。同时,需要引用正确的参考文献,比如引用[3]对应BLEU计算,引用[1][2]对应ROUGE的代码原理。 可能的问题点是用户需要具体的计算步骤,而不仅仅是代码。例如,手动计算BLEU-2的示例,分步骤统计n-gram匹配数,计算精确率,然后应用短句惩罚。这能帮助理解公式的实际应用。同样,ROUGE-L的计算需要解释最长公共子序列的概念,并给出具体例子中的数值。 另外,要注意用户提供的引用中有没有需要注意的地方,比如引用[4]提到METEOR的公式,但用户的问题不涉及这个,所以可以忽略,除非需要对比。但用户的问题集中在BLEUROUGE,所以重点在这两个指标。 总结回答的结构:先分别介绍BLEUROUGE的公式,然后给出计算步骤的示例,接着提供代码示例,最后总结两者的区别应用场景。确保每个部分都有引用支持,比如引用[3]用于BLEU,引用[1][2]用于ROUGE。 现在需要检查是否有遗漏的细节,比如BLEU的短句惩罚因子具体如何计算,是否在公式中正确体现。例如,BP是1如果候选长度等于参考长度,否则是exp(1 - r/c)。在示例中,候选长度比参考短,所以BP=exp(1 - 7/6)=exp(-1/6)≈0.846。需要确保计算正确。 对于ROUGE-L,最长公共子序列的长度是3(比如示例中的例子“is a nice day”),候选文本的长度是6,参考文本是6,所以召回率是3/6=0.5,精确率是3/7≈0.428,F1是调平均。需要确认这些数值是否正确。 最后,代码部分需要确认是否可以直接运行,比如rouge库的安装导入是否有问题,是否需要预处理文本(如分词)。引用[1]的示例代码中候选参考文本已经分词了吗?看起来没有,可能需要分词,但示例中可能假设已经处理好了。不过在实际中,可能需要先分词,但示例中的句子简单,可能不需要。不过需要注意代码的正确性。</think>### BLEUROUGE分数计算方法 #### 1. **BLEU(Bilingual Evaluation Understudy)** BLEU通过计算候选文本与参考文本的n-gram匹配程度,侧重精确率并引入短句惩罚。 **公式** BLEU-N得分计算公式为: $$ BLEU = BP \cdot \exp\left( \sum_{n=1}^N w_n \log p_n \right) $$ 其中: - $p_n$ 是n-gram精确率: $$ p_n = \frac{\sum_{\text{匹配的n-gram}} \text{计数}}{\sum_{\text{候选文本中n-gram}} \text{计数}} $$ - $BP$ 是短句惩罚因子: $$ BP = \begin{cases} 1 & \text{若候选文本长度} \geq \text{参考文本长度} \\ \exp\left(1 - \frac{\text{参考长度}}{\text{候选长度}}\right) & \text{否则} \end{cases} $$ **手动计算示例** 假设候选文本为 `"the cat is on the mat"`,参考文本为 `"the cat is sitting on the mat"`。 - **BLEU-2计算**: 1. 候选2-gram:`["the cat", "cat is", "is on", "on the", "the mat"]` 参考2-gram:`["the cat", "cat is", "is sitting", "sitting on", "on the", "the mat"]` 匹配数:4(`"the cat"`, `"cat is"`, `"on the"`, `"the mat"`) $p_2 = \frac{4}{5} = 0.8$ 2. 候选长度=6,参考长度=7 → $BP = \exp(1 - 7/6) \approx 0.846$ 3. 假设权重$w_n$均匀分布(N=2),则: $$ BLEU = 0.846 \cdot \exp\left( \frac{1}{2} (\log 0.8) \right) \approx 0.74 $$ #### 2. **ROUGERecall-Oriented Understudy for Gisting Evaluation)** ROUGE关注召回率,常用ROUGE-N(n-gram)ROUGE-L(最长公共子序列)。 **ROUGE-N公式** $$ ROUGE\text{-}N = \frac{\sum_{\text{参考文本中n-gram}} \text{匹配数}}{\sum_{\text{参考文本中n-gram}} \text{总数}} $$ **ROUGE-L公式** 基于最长公共子序列(LCS): $$ R_{\text{LCS}} = \frac{LCS(X,Y)}{\text{参考长度}}, \quad P_{\text{LCS}} = \frac{LCS(X,Y)}{\text{候选长度}} $$ $$ F_{\text{LCS}} = \frac{(1+\beta^2)R_{\text{LCS}}P_{\text{LCS}}}{R_{\text{LCS}} + \beta^2 P_{\text{LCS}}}} \quad (\text{默认}\beta=1) $$ **代码示例(使用Python `rouge`库)** ```python from rouge import Rouge # 示例文本 candidate = "the cat is on the mat" # 候选文本 reference = "the cat is sitting on the mat" # 参考文本 # 计算ROUGE分数 rouge = Rouge() scores = rouge.get_scores(candidate, reference) # 输出结果 print("ROUGE-1:", scores[0]['rouge-1']) # ROUGE-1(1-gram召回率) print("ROUGE-2:", scores[0]['rouge-2']) # ROUGE-2(2-gram召回率) print("ROUGE-L:", scores[0]['rouge-l']) # ROUGE-L(基于LCS的F1值) ``` **输出结果示例** ``` ROUGE-1: {'f': 0.8, 'p': 0.666, 'r': 1.0} ROUGE-2: {'f': 0.666, 'p': 0.571, 'r': 0.8} ROUGE-L: {'f': 0.8, 'p': 0.666, 'r': 1.0} ``` #### 3. **核心区别** | 指标 | 侧重点 | 核心方法 | 应用场景 | |-------|-------------|------------------------|------------------| | BLEU | 精确率 | n-gram匹配 + 短句惩罚 | 机器翻译 | | ROUGE | 召回率 | n-gram/LCS + F1调平均| 文本摘要、生成 | --- ### 相关问题 1. **BLEU指标为什么需要短句惩罚?** BLEU假设较长的候选文本更容易匹配参考内容,短句惩罚避免生成过短文本投机取巧[^3]。 2. **ROUGE-L如何缓解句子结构差异的影响?** 通过最长公共子序列(LCS)捕捉非连续但顺序一致的匹配,更贴近语义连贯性[^2]。 3. **如何选择BLEUROUGE的n-gram阶数?** BLEU常用N=4,ROUGE-N常用N=1或2,需根据任务需求平衡局部细节与整体语义[^4]。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值