终结奖励欺骗?Google Deepmind 提出 Crome 框架

大型语言模型的对齐问题一直困扰着人工智能领域。奖励欺骗问题使模型基于表面特征赋予高分,导致策略与高质量行为脱节。Google DeepMind 提出的 Crome 框架,通过因果增强和中性增强策略,有效提升了奖励模型的鲁棒性和准确性。

大家好,我是肆〇柒。大型语言模型(LLM)的对齐问题一直是人工智能领域的热门话题。在将这些强大的模型应用于现实场景时,确保它们的行为能够精准地与人类的偏好和价值观对齐至关重要。为了实现这一目标,研究者们提出了强化学习从人类反馈(RLHF)这一范式。在 RLHF 的框架下,奖励模型(RM)作为连接人类偏好与模型行为的桥梁,承担着至关重要的角色。RM 的任务是从人类提供的反馈数据中学习,为模型的输出赋予一个奖励分数,从而引导模型的行为朝着更符合人类期望的方向发展。奖励模型(RM)作为强化学习从人类反馈(RLHF)中的关键组件,其主要任务是从人类的偏好数据中学习并指导模型的行为。

然而,现有的 RM 常常受到奖励欺骗问题的困扰,即模型可能基于一些表面的、非因果的特征来赋予高分,从而导致策略与真正的高质量行为脱节。这一问题源于 RM 在训练过程中,往往会不自觉地依赖于一些表面的、与质量无关的特征,例如回答的长度、格式或者风格,而忽略了真正决定回答质量的核心因素。这种对虚假属性的依赖使得 RM 易受数据中的噪声和偏差影响,导致模型的鲁棒性和泛化能力大打折扣,进而影响了整个 RLHF 系统的性能和可靠性。

为了解决这一难题,由 Google DeepMind 及其合作机构提出了 Crome 框架。Crome 通过引入因果模型,其设计目标就是提高 RM 对真正影响回答质量的因果属性的敏感性,同时减少对虚假属性的依赖,从而提升模型的鲁棒性和对齐效果。

为了更清晰地展示 Crome 框架的实现过程,我们可以通过下图来了解整个数据增强和训练流程。在这个流程中,原始的问答对(Q, A1, A2)首先通过一个 oracle LLM 识别出因果属性(C(A))。然后,基于这些因果属性,生成降级的 A1 和升级的 A2 回答,形成因果增强数据。接下来,通过不相关查询中性化(IQN)生成中性增强数据。这些数据经过验证和过滤后,与原始数据结合,用于训练奖励模型(RM),从而增强其鲁棒性。

Crome 数据增强与训练Pipeline

Crome 框架的核心思想

Crome 框架的核心思想是基于因果模型来指导奖励建模,以提高模型对因果属性的敏感性和对虚假属性的不变性。为了实现这一目标,Crome 引入了一种新颖的数据增强策略,包括因果增强和中性增强。

因果增强通过生成反事实示例来强化模型对因果属性的敏感性。具体来说,对于一个原始回答,Crome 会利用 LLM 生成其在特定因果属性上的升级或降级版本。例如,如果原始回答在事实性上表现较好,Crome 可能会生成一个事实性被削弱的版本,同时保持其他属性不变。通过这种方式,模型可以学习到因果属性变化与奖励变化之间的对应关系。

中性增强则是为了提高模型对虚假属性的不变性。其中,不相关查询中性化(IQN)是一种有效的策略。它通过将一对回答重新 contextualize 到一个新的、不相关的查询中,使得模型在训练过程中学会忽略虚假属性的差异。例如,两个回答在原始查询下可能因格式不同而被区别对待,但在新的不相关查询下,这些格式差异变得无关紧要,从而迫使模型关注回答的因果内容。

此外,Crome 框架通过精心设计的损失函数来整合因果增强和中性增强数据。为了更直观地理解因果增强和中性增强策略,下图展示了 Crome 的核心增强策略。

可视化Crome的核心增强策略。 (上)因果增强:对于给定的查询,利用基于大语言模型的反事实生成过程来改变某个特定的因果属性,从而得到答案2。某些虚假属性可能会随之变化。奖励模型(RM)通过偏好训练(例如,如果A2是降级版本,则A1 ≻ A2),学习因果敏感性。 (下)无关查询中性化:相同的答案对(A1, A2)被重新置于一个新且不相关的问题上下文中。它们原本的因果属性变得实际上无效或不相关(灰色条)。奖励模型通过等价标签(A1 ≈ A2)进行训练,学习在当前查询不存在真实因果信号时对属性差异保持不变性。这展示了IQN如何对那些随C变化的虚假属性(例如,响应长度随响应清晰度变化)保持不变性。类似的不变性也通过从原始数据集中获取的(A1, A2)对来实现,以增强对不随C变化的通用虚假属性(SP)的鲁棒性

在训练过程中,模型不仅需要在因果增强数据上表现出对因果属性的敏感性,还需要在中性增强数据上展现出对虚假属性的不变性。这种双重约束使得 Crome 能够在复杂的文本数据中精准地识别和利用因果信息,从而提高奖励建模的鲁棒性和准确性。

因果模型基础

因果属性与虚假属性的定义

在奖励建模的语境中,因果属性是指那些真正决定回答质量的关键因素,它们与问题本身高度相关,并直接影响回答的价值和准确性。例如,一个回答的事实性、相关性和逻辑性都是典型的因果属性。这些属性的变化会直接导致回答质量的提升或下降。

与之相对的是虚假属性,它们虽然可能在数据中与偏好或问题相关联,但却并不直接决定回答的质量。常见的虚假属性包括回答的格式、长度、风格等。例如,一个回答可能因为采用了精美的排版而受到青睐,但这并不意味着其内容更具价值。虚假属性的引入往往会使奖励模型产生误导,使其误将形式上的优势当作质量的标志。

属性的识别方法

为了准确区分因果属性和虚假属性,研究者们采用了多种方法。其中,人工标注是一种直接且有效的方式。通过让领域专家或经过训练的标注者对回答进行多维度的评估,可以初步识别出哪些特征对质量有直接影响。然而,人工标注的成本较高且效率较低,因此研究者们进一步探索了自动化的方法。

统计分析提供了一种数据驱动的视角。通过分析人类偏好数据中的相关性模式,可以发现哪些特征与高质量回答频繁共现。但这种方法存在一定的局限性,因为它可能混淆因果关系和相关性,将虚假属性误认为因果属性。

大型语言模型(LLM)的引入为属性识别带来了新的突破。LLM 以其强大的语言理解和生成能力,能够对回答进行深入分析,并挖掘出潜在的因果因素。例如,通过设计特定的提示(prompt),可以让 LLM 输出对回答质量各维度的评估,从而辅助识别因果属性。这种方法结合了人工智慧和机器智能的优势,既保证了准确性,又提高了效率。

在属性识别的过程中,因果推断理论和贝叶斯网络等理论基础发挥了重要作用。因果推断理论强调对因果关系的识别和分析,帮助研究者从复杂的数据中提炼出真正的因果因素。贝叶斯网络则通过构建概率图模型,直观地展示了不同属性之间的依赖关系,为属性的分类和识别提供了有力的支持。

属性在 LLM 输出中的表现形式

在 LLM 的输出中,因果属性和虚假属性往往以不同的形式表现出来。例如,一个具有高度事实性的回答(因果属性)会准确地引用相关领域的知识,提供具体的事实和数据支持。而另一个具有精美格式的回答(虚假属性)则可能通过清晰的段落划分、恰当的标题和列表等手段来吸引注意。

假设有一个问题询问某种疾病的治疗方法。一个因果属性表现突出的回答会详细列出各种治疗方法的原理、适用范围和可能的副作用,并引用权威的医学研究来支持其观点。而一个虚假属性占优的回答则可能使用大量的加粗、斜体和颜色标注,使得页面看起来整洁美观,但其内容可能缺乏深度和准确性。

医学诊断中的“礼貌偏差”

研究表明,当奖励模型过于关注虚假属性时,会导致模型在面对轻微的文本转换时性能急剧下降。例如,在 reWordBench 基准测试中,一些奖励模型在面对释义或格式变化时,其准确率可能下降超过 30%。这凸显了在奖励建模中考虑因果属性与虚假属性的区别对于提高模型性能和鲁棒性的关键作用。

因果模型的构建

为了更直观地理解因果属性和虚假属性之间的关系,引入了一个概念因果图(如下图)。在这个图中,查询(Q)和答案(A)的因果属性(C(A))共同决定了真实奖励(R*),而虚假属性(SP(A))虽然可能与偏好相关,但并不直接影响真实奖励。通过这种方式,我们可以清晰地看到因果属性在奖励建模中的核心地位,以及虚假属性可能带来的干扰。

奖励建模的概念因果图

理论分析

Crome 框架的理论建立在一系列理想化模型假设之上。例如,假设因果属性和虚假属性都是布尔变量,即它们以二元状态(存在或不存在)表现。这种简化使得分析更加聚焦于核心机制,而不被复杂的变量类型所干扰。同时,理论分析假设奖励函数是一个稀疏的二次多项式,仅依赖于因果属性。这一假设反映了现实中的一个常见现象:奖励往往由少数关键因素决定,而非所有可能的特征。

通过因果增强数据训练的奖励模型能够更准确地识别因果奖励决定因素。例如,在实验数据中,经过因果增强训练的模型在面对新的、未见过的数据时,能够更好地泛化其对因果属性的理解。训练前后的模型性能对比验证了因果增强数据的有效性:在因果属性发生变化时,训练后的模型能够更精准地调整奖励分数,而对虚假属性的变化则表现得更为鲁棒。

理论结果对实际应用具有重要的启示。首先,因果增强数据的设计和生成需要尽可能贴近实际场景中的因果关系。这意味着在生成反事实示例时,要确保因果属性的改变是合理且符合逻辑的。其次,理想化假设在现实中可能难以完全满足,例如虚假属性可能与因果属性存在一定的关联。因此,在实际应用中需要对理论方法进行适当的调整和优化,以应对复杂多变的实际情况。例如,在实际应用中,可以通过增加数据多样性、采用更复杂的模型结构等方法来缓解假设与现实之间的偏差。

与相关工作的对比分析
对比维度

Crome 框架与其他相关方法(如 RRM、PairPM 等)在多个维度上存在显著差异。在方法原理上,Crome 强调因果属性与虚假属性的分离,这种分离使得模型能够更精准地识别真正影响质量的因素。例如,RRM 更侧重于通过非上下文相关的数据增强来提升模型的鲁棒性,而 Crome 则通过因果模型深入挖掘文本的内在因果结构。

在数据增强策略上,Crome 的因果增强和中性增强策略显得更为精细和有针对性。例如,因果增强通过生成反事实示例来强化因果属性的学习,而 RRM 的非上下文相关增强则更多地关注于增加数据的多样性。这两种策略各有优劣:Crome 的方法在提升因果属性识别能力方面表现突出,但可能需要更多的计算资源;RRM 的方法则更为高效,但在处理复杂的因果关系时可能略显不足。

在模型训练目标上,Crome 专注于提高模型对因果属性的敏感性和对虚假属性的不变性。这种目标使得 Crome 在面对虚假属性的干扰时能够保持稳定的表现。相比之下,其他方法可能更关注整体性能的提升或特定场景下的优化。例如,PairPM 更强调通过成对比较来直接预测偏好,这在某些场景下可以更快地提升模型的准确率,但在处理因果关系时可能不够深入。

在适用场景上,Crome 在安全、推理等需要高度鲁棒性的任务中展现出明显优势。例如,在 WildGuardTest 数据集上,Crome 能够显著降低攻击成功率,同时保持较低的拒绝回答率。而在其他对因果关系要求较低的场景中,可能更适合采用计算成本较低的方法。

在具体技术细节上,Crome 的因果增强通过 LLM 生成反事实示例,这些示例在因果属性上进行了精确的升级或降级,同时保持其他属性不变。例如,Crome 可以生成一个在事实性上被削弱但格式保持不变的回答,从而让模型学习到事实性对奖励的影响。而 RRM 的非上下文相关增强则可能生成一个与原始回答在多个属性上都不同的示例,这种方法虽然增加了数据的多样性,但可能稀释了因果属性的学习效果。

对比呈现方式

通过表格形式可以直观地呈现 Crome 框架与其他方法在各个维度上的对比结果。例如:

对比维度

Crome 框架

RRM 方法

PairPM 方法

方法原理

基于因果模型分离因果属性与虚假属性

非上下文相关的数据增强

通过成对比较直接预测偏好

数据增强策略

因果增强和中性增强

非上下文相关增强

成对比较示例

模型训练目标

提高对因果属性的敏感性和对虚假属性的不变性

提升模型的整体鲁棒性

提高成对比较的准确率

适用场景

安全、推理等需要高度鲁棒性的任务

对因果关系要求较低的场景

一般 RLHF 场景

技术细节

LLM 生成反事实示例,精确控制因果属性变化

随机生成非上下文相关示例

直接使用成对比较数据

优势

更精准地识别因果属性,对虚假属性鲁棒性强

数据增强效率高,适用于大规模数据

训练目标直接与偏好预测对齐

局限性

计算成本较高,对 LLM 生成质量依赖

对因果关系的处理较弱

对因果属性的学习可能不深入

Crome 框架

为了更清晰地展示 Crome 框架的实现过程,我们可以通过下图来了解整个数据增强和训练流程。

Chrome数据增强流程。以原始偏好数据(D``pref``)为基础,生成以下内容: (1) 因果增强数据(D``causal``)。通过对特定属性进行属性升级或降级,强化对真实质量驱动因素的敏感性;(2) 中性增强数据(D``neutral``)。通过使用无关查询中性样本(带有平局标签)来训练对虚假特征的不变性。在可选过滤之后,奖励模型在原始数据集和增强数据集的组合上进行训练。

因果增强

因果增强是 Crome 框架的核心组件之一,其目标是通过生成反事实示例来强化模型对因果属性的敏感性。在这个过程中,大型语言模型(LLM)扮演了关键角色。LLM 会依据具体规则和算法逻辑,确定要升级或降级的因果属性。例如,对于一个原始回答,LLM 可能会分析其在事实性、相关性和逻辑性等维度的表现,并结合问题的背景和要求,精准定位需要调整的属性。

为了确保生成示例的准确性和相关性,Crome 框架采取了一系列措施。首先,生成的反事实示例会经过多维度的评估,包括内容的准确性、逻辑的连贯性和因果属性的改变程度等。其次,这些示例会与原始数据进行对比验证,以确保它们在其他非目标属性上保持一致。例如,如果目标是改变回答的事实性,那么生成的回答不应在格式或风格上出现显著差异。

因果增强在不同场景下的应用展现了其灵活性和有效性。例如,在提升答案的事实性时,LLM 可能会引入更多的权威引用和具体数据;在增强相关性时,可能会调整回答的结构,使其更紧密地围绕问题的核心展开。以下是一个具体的示例:

假设原始回答是关于全球变暖的潜在原因,其因果属性 “准确性” 表现良好,但 “完整性” 较弱。LLM 会分析该回答的内容,识别出其在完整性方面的不足之处,例如缺少对某些关键因素的具体机制的解释。然后,LLM 会生成一个新的回答,其中增加了对这些关键因素的详细描述,从而提升完整性这一因果属性,同时确保其他属性(如格式和风格)保持不变。通过这种方式,模型可以学习到完整性提升对奖励的正向影响。

中性增强

中性增强是 Crome 框架的另一个关键组件,其目标是提高模型对虚假属性的不变性。中性增强主要通过两种策略实现:不相关查询中性化(IQN)和其他中性增强方法(如因果对齐中性化)。

IQN 的核心思想是通过改变查询的上下文,使得原本可能影响奖励判断的虚假属性变得无关紧要。具体来说,Crome 会将一对回答重新 contextualize 到一个新的、不相关的上下文中。在这个新的上下文中,回答的虚假属性差异(如格式或风格)不再与查询相关,因此模型需要学会忽略这些差异,转而关注回答的因果内容。

因果对齐中性化则通过调整回答的因果属性,使其与另一个高质量回答对齐,同时保留其原始的虚假属性。例如,给定一个因果属性较弱但虚假属性较强的回答,Crome 会尝试提升其因果属性,使其与另一个高质量回答相当,同时保持其虚假属性不变。这样,模型可以学习到即使在虚假属性存在的情况下,因果属性仍然是决定奖励的关键因素。

不同中性增强方法各有优缺点。IQN 的优势在于其简单性和广泛适用性,但可能在某些情况下无法完全消除虚假属性的影响。因果对齐中性化则更注重因果属性的精准对齐,但在生成过程中可能需要更多的计算资源和复杂的调整。这些方法在不同情况下的适用性取决于具体的应用场景和可用资源。以下是一个具体的示例:

假设有一个回答因其格式精美(虚假属性)而被高度评价,但其内容的逻辑性(因果属性)较弱。通过因果对齐中性化,Crome 会生成一个新的回答,其中逻辑性得到了显著提升,而格式保持不变。这样,模型在训练过程中会学习到逻辑性的重要性,而不会被格式所干扰。

实验设计与评估指标

为了全面评估 Crome 框架的性能,研究者们设计了一系列实验,并采用了多个基准数据集和评估指标。这些数据集包括 RewardBench、WildGuardTest 和 GSM8k,涵盖了聊天、推理、安全等多个领域。评估指标则包括平均准确率、攻击成功率、拒绝回答率等,期望从多个角度衡量模型的性能和鲁棒性。

Best-of-N 推理设置在评估中扮演了重要角色。通过这种设置,研究者们能够模拟在实际应用中从多个候选回答中选择最佳回答的场景。这不仅考验了模型在单次判断中的准确性,还考察了其在面对大量数据时的稳定性和可靠性。通过 Best-of-N 设置,可以更准确地衡量模型在面对罕见或长尾虚假属性时的鲁棒性。

在实验方法细节方面,Crome 框架采用了多个先进的 LLM 模型和基座模型。例如,Gemini 2.0 Flash 被用于生成反事实示例,而 Gemma-2-9B-IT、Qwen2.5-7B 和 Gemma-2-2B 则作为奖励模型的基座模型。数据集构建过程严谨,原始数据集 UltraFeedback 被用作基础,通过特定的提示模板引导 LLM 生成因果增强和中性增强数据。模型训练的超参数设置经过精细调整,使用了 AdamW 优化器、合理的学习率、批量大小和余弦学习率调度等,以确保模型的高效训练。整个训练过程在 8 块 NVIDIA A100 80GB GPU 上进行,耗时约 10-16 小时。

实验结果与分析

实验结果可视化

在实验结果的可视化方面,Crome 框架展现了显著的优势。通过柱状图可以直观地看到,Crome 在不同类别(聊天、聊天-难、安全、推理)上的准确率均优于基线模型。例如,在安全类别上,Crome 的准确率相比基线模型提升了约 13%,在推理类别上提升了约 7%。这些数据充分证明了 Crome 在关键领域的卓越性能(见下表)。

在奖励基准(RewardBench)上对成对偏好模型和Bradley-Terry奖励模型使用不同基础模型训练的性能比较

在 reWordBench 基准测试中,Crome 的鲁棒性表现尤为突出。折线图清晰地展示了 Crome 在面对各种语义保持转换(如释义、添加不相关文本、代码等)时的排名准确率变化趋势。与基线模型相比,Crome 的排名准确率在大多数转换类型上都保持在较高水平,尤其是在面对释义和格式变化时,其准确率比其他模型高出近 10%(见下图)。

横轴为不同的语义保持转换类型,纵轴为排名准确率(%),展示 Crome 在各种转换类型上的表现优于基线模型 RM 和 RRM

在 Best-of-N 设置下,Crome 的性能同样令人印象深刻。对比图表显示,随着 N 值的增大,Crome 的准确率和选择最佳响应的成功率依然保持稳定增长。这表明 Crome 在处理大量候选回答时,能够更有效地筛选出真正高质量的回答,而不会被虚假属性所干扰(见下图)。

展示 Crome 在从 RewardBench 到 reWordBench 的排名准确率变化百分比,表明 Crome 的排名准确率下降幅度最小

最佳N次结果:在WildGuardTest上的ASR降低情况

在GSM8K数据集上的最佳N选一推理评估

不同中性增强策略的影响

进一步分析不同中性增强策略对 Crome 性能的影响,可以发现 Crome-IQN、Crome-PARA 和 Crome-CAN 等变体在不同数据集上的表现各有千秋。例如,在 RewardBench 上,Crome-IQN 凭借其简单而有效的不相关查询中性化策略,取得了最高的准确率;而在 reWordBench 上,Crome-CAN 则通过精准的因果对齐中性化方法展现了更强的鲁棒性。这种多样性为实际应用中根据具体需求选择合适的中性增强策略提供了灵活性。以下是一些具体的数据:

  • 在 RewardBench 数据集上,Crome-IQN 的平均准确率达到了 94.39%,相比基线模型 RRM 提升了 7.12%。
  • 在 reWordBench 数据集上,Crome-CAN 的平均排名准确率达到了 72.71%,相比基线模型 RRM 提升了 12.5%。

以下两图分别展示了 Crome 在不同中性增强策略下的平均性能和在 RewardBench 不同子集上的评估结果。通过这些图表,我们可以看到不同策略在不同场景下的表现差异,从而更好地理解如何选择合适的中性增强方法。

Crome在不同中性增强策略训练下在RewardBench和reWordBench上的平均表现

对RewardBench不同子集上中性增强变体的评估

一点讨论

实际应用指导内容

在实际应用中,Crome 框架的部署需要根据不同的大型语言模型和任务需求进行精细调整。例如,在不同规模的 LLM 上,数据增强的比例和训练超参数可能需要重新校准。对于较小的模型,可能需要减少增强数据的比例以避免过拟合;而对于较大的模型,则可以适当增加数据量以充分利用其强大的学习能力。

数据质量问题也是实际应用中的一个重要挑战。数据噪声和数据不平衡可能对 Crome 框架的性能产生显著影响。为了解决这些问题,可以采取数据预处理措施,如清洗噪声数据、平衡数据分布,以及采用增强学习策略,如动态调整学习率和批量大小等。

将 Crome 框架与现有的模型评估和对齐流程相结合是实现高效模型训练的关键。例如,在现有的 RLHF 流程中,可以在人类反馈数据收集之后、模型训练之前嵌入 Crome 的因果增强和中性增强策略。这样可以在不大幅改变现有流程的情况下,显著提升模型的鲁棒性和对齐效果。

Crome 的局限性

尽管 Crome 框架在提高奖励模型鲁棒性方面取得了较好的试验数据,但其仍存在一些局限性。首先,理想化假设在实际应用中可能难以完全满足。例如,布尔属性的假设忽略了属性可能存在的多级或连续状态。其次,数据增强的可扩展性与成本也是一个值得关注的问题。生成高质量的反事实示例需要大量的计算资源和精心设计的提示,这在大规模应用中可能成为瓶颈。此外,Crome 框架对新型虚假属性的泛化能力仍有待提高,尤其是在面对完全未见过的虚假属性时。最后,LLM 生成反事实的保真度可能因模型的局限性而受到影响,进而影响增强数据的质量。

针对这些局限性,未来的改进方向包括扩展理论框架以涵盖更复杂的属性类型,开发更高效的数据增强策略以降低计算成本,进一步探索对新兴虚假属性的泛化能力,以及提升 LLM 在反事实生成中的保真度。这些研究将有助于推动因果鲁棒奖励建模技术的进一步发展和应用。

总结

本文介绍了一种新的框架 Crome(Causally Robust Reward Modeling),为解决奖励模型的奖励欺骗问题提供了一种创新而有效的方法。Crome 通过引入因果模型和精心设计的数据增强策略,为解决 RLHF 中的奖励欺骗问题提供了新的视角和解决方案。以下是文章的核心观点和总结:

Crome 框架的核心贡献

1. 因果增强和中性增强:Crome 提出了两种关键的数据增强策略。因果增强通过生成在特定因果属性上有所变化的问答对,提高了模型对这些属性变化的敏感性。中性增强则通过生成主要在虚假属性上有所变化的问答对标记对,增强了模型对这些属性变化的不变性。这些策略使得 Crome 能够精准地区分因果属性和虚假属性,从而提升奖励建模的鲁棒性和准确性。

2. 因果模型的应用:Crome 基于因果模型,强调对因果关系的识别和分析。它通过构建因果图,清晰地展示了因果属性和虚假属性在奖励建模中的作用。这种因果视角有助于提高模型的鲁棒性,也为理解模型行为提供了更深入的理论基础。

通过一系列实验验证了 Crome 框架的有效性。在 RewardBench、WildGuardTest 和 GSM8k 等多个基准数据集上,Crome 在平均准确率、攻击成功率和拒绝回答率等关键指标上均优于基线模型。特别是在安全和推理任务中,Crome 展现出了显著的性能提升,证明了其在实际应用中的潜力和价值。

Crome 框架可以轻松集成到现有的 RLHF 流程中,通过在人类反馈数据收集后和模型训练前嵌入数据增强策略,显著提升模型的鲁棒性和对齐效果。这对于确保大型语言模型(LLM)的安全和有效部署具有重要意义。Crome 的成功不仅体现在实验结果上,更为AI应用落地时的奖励建模提供了新的思路和方法论。它强调了因果关系在建模复杂文本数据中的重要性,并展示了如何通过系统的设计和优化来克服虚假属性的干扰。Crome 框架是一个极具前景的工具。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值