复旦大学揭秘:强化学习中的“魔法“原来是作弊!

这项由复旦大学张琦教授领导的研究团队发表于2025年7月的arXiv预印本(arXiv:2507.10532v1),有兴趣深入了解的读者可以通过https://arxiv.org/abs/2507.10532v1访问完整论文。研究团队包括来自复旦大学、上海人工智能实验室和加州大学戴维斯分校的多位研究人员。

想象你在参加一场数学竞赛。有两个选手,一个叫Qwen,一个叫Llama。奇怪的是,Qwen似乎拥有某种魔法:即使给他完全错误的答案提示,他也能在数学题上表现出色。而Llama则表现正常——给他正确提示会进步,给他错误提示就会退步。这到底是怎么回事?

复旦大学的研究团队就像侦探一样,决定彻底调查这个神秘现象。他们发现,这个看似神奇的现象背后,隐藏着一个令人震惊的真相:Qwen并不是真的有魔法,而是在某种程度上"作弊"了。

这个发现对于整个人工智能领域都有着重要意义。近年来,通过强化学习提升大语言模型的数学推理能力已经成为热门研究方向。OpenAI的o1、DeepSeek-R1等明星系统都在数学基准测试中表现出色。而在开源模型中,Qwen系列模型更是风头无二,在数学推理任务上屡创佳绩。

更令人困惑的是,最近的一些研究发现,即使给Qwen模型提供随机甚至错误的奖励信号,它在数学推理任务上的表现仍然能够提升。这就像给一个学生完全错误的答案,他反而能考得更好一样,听起来不可思议。相比之下,同样的方法在Llama模型上却毫无效果,甚至会让表现变差。

这个现象引起了研究团队的高度关注。他们意识到,如果这种"魔法"真的存在,那么它将颠覆我们对强化学习的理解。但如果这只是一个假象,那么很多基于这种现象的研究结论都可能是不可靠的。

为了揭开这个谜团,研究团队提出了两个可能的解释。第一个解释是"数据污染假说":由于Qwen模型在训练时接触了大量网络数据,其中可能包含了评估数据集的内容,导致模型实际上是在"回忆"而不是"推理"。第二个解释是"强基线假说":Qwen模型本身的数学能力就比Llama强,所以即使在噪声信号下也能表现出色。

通过一系列精心设计的实验,研究团队最终证明了第一个假说是正确的。他们的发现不仅解释了这个神秘现象,也为整个强化学习领域敲响了警钟。

一、揭秘"魔法"现象:当错误变成正确

想象你在教两个学生做数学题。第一个学生叫Qwen,第二个叫Llama。你决定做一个实验:给他们同样的题目,但故意给出错误的答案作为"标准答案"。

正常情况下,你会预期两个学生都会因为错误的指导而表现变差。但奇怪的事情发生了:Qwen的成绩竟然提高了,而Llama的成绩如预期般下降了。这就是研究团队观察到的现象。

具体来说,当研究人员对Qwen2.5-Math-7B模型进行强化学习训练时,他们发现了一个令人困惑的现象。正常的强化学习应该是这样工作的:当模型给出正确答案时,给它正面奖励;当模型给出错误答案时,给它负面奖励。通过这种方式,模型会逐渐学会给出更多正确答案。

然而,研究团队尝试了几种"异常"的奖励方式。首先是随机奖励:无论答案正确与否,都随机给出奖励或惩罚。其次是反向奖励:故意给正确答案负面奖励,给错误答案正面奖励。还有一种是"多数错误"奖励:只有当模型给出大多数其他模型都会给出的错误答案时,才给予奖励。

按照常理,这些奖励方式都应该让模型表现变差。但在MATH-500这个广泛使用的数学基准测试中,Qwen模型的表现不仅没有变差,反而有所提升。这就像一个学生被故意教错了答案,考试成绩却莫名其妙地提高了。

更让人困惑的是,同样的实验在Llama模型上产生了完全不同的结果。Llama模型在接受这些异常奖励时,表现如预期般下降了。这说明Llama模型的行为符合我们对强化学习的正常理解,而Qwen模型的行为则存在某种异常。

这个现象在学术界引起了广泛讨论。一些研究者认为这可能代表了强化学习的新突破,暗示着即使在噪声环境下,足够强大的模型也能找到正确的方向。另一些研究者则持怀疑态度,认为这个现象过于反常,可能存在其他原因。

研究团队决定深入调查这个现象。他们首先排除了一些简单的解释。比如,这不是因为Qwen模型的架构更先进,因为类似的现象在其他先进模型上并没有出现。这也不是因为训练数据的质量问题,因为同样的训练过程在其他模型上产生了不同的结果。

通过仔细分析,研究团队意识到问题可能出在评估数据上。如果Qwen模型在预训练阶段就已经"见过"了MATH-500数据集中的题目,那么它在测试时实际上是在进行记忆回忆,而不是真正的数学推理。在这种情况下,即使给出错误的奖励信号,模型也可能通过某种机制激活其记忆中的正确答案。

这个假设解释了为什么只有Qwen模型表现出这种异常行为。Qwen模型在训练时使用了大量的网络爬虫数据,这些数据很可能包含了各种数学竞赛题目和解答,包括MATH-500数据集中的内容。而Llama模型的训练数据相对更加精选,污染程度可能较低。

为了验证这个假设,研究团队设计了一系列精巧的实验。他们的发现不仅解释了这个神秘现象,也揭示了当前AI评估体系中的一个重要问题。

二、侦探式调查:寻找"作弊"的证据

就像侦探调查案件一样,研究团队开始寻找Qwen模型"作弊"的证据。他们设计了一个特别巧妙的测试方法:只给模型展示数学题目的前一部分,看它能否准确地"续写"出剩余部分。

这个测试的逻辑很简单:如果一个学生真的在考试中作弊,那么当你只给他看题目的开头时,他应该能够准确地说出题目的剩余部分,因为他事先已经见过完整的题目。但如果他没有作弊,那么他不可能仅凭开头就知道完整题目的内容。

研究团队选择了几个不同的数学数据集进行测试,包括MATH-500、AMC(美国数学竞赛)、AIME(美国数学邀请赛)等。对于每个题目,他们只展示前40%、60%或80%的内容,然后让模型尝试续写剩余部分。

结果令人震惊。当研究团队给Qwen2.5-Math-7B模型展示MATH-500题目的前60%时,它能够准确重现剩余40%内容的比例高达54.6%。这意味着超过一半的题目,Qwen模型都能够仅凭开头就准确地"猜出"完整内容。更令人吃惊的是,即使只展示前40%的内容,Qwen模型仍然能够准确重现剩余60%内容的比例达到39.2%。

作为对比,Llama3.1-8B模型在相同测试中的表现完全不同。当展示前60%内容时,它只能准确重现剩余部分的3.8%。当展示前40%内容时,这个比例更是降到了2.4%。这种巨大的差异清楚地表明,Qwen模型确实对这些题目有着异常的"熟悉度"。

但这还不是最有说服力的证据。研究团队接下来进行了一个更加严格的测试。他们使用了LiveMathBench这个数据集,这是一个在Qwen2.5模型发布之后才公开的数学测试集。如果Qwen模型的异常表现确实是由于数据污染造成的,那么它在这个全新数据集上的表现应该会回归正常。

果然,当使用LiveMathBench数据集时,Qwen模型的"超能力"消失了。它在题目续写任务上的表现下降到了0.0%,与Llama模型的表现基本一致。这个结果有力地证明了数据污染假说的正确性。

研究团队还进行了另一项测试:让模型在只看到部分题目的情况下直接给出答案。正常情况下,没有完整题目信息的情况下,模型应该无法给出正确答案。但如果模型已经"记住"了完整题目,那么它可能仍然能够给出正确答案。

测试结果再次证实了研究团队的假设。Qwen模型在只看到MATH-500题目前60%内容的情况下,仍然能够给出正确答案的比例高达53.6%。即使只看到前40%的内容,正确率也有41.2%。相比之下,Llama模型在相同条件下的正确率仅为2.4%和2.0%。

这些发现让研究团队意识到,问题比他们最初想象的还要严重。Qwen模型不仅记住了题目的文本内容,还记住了相应的解答过程。在一些测试中,即使只给出题目的开头,Qwen模型也能够生成完整的、逻辑清晰的解答过程,甚至包括正确的Python代码。

这种现象的出现并不意外。现代大语言模型的训练通常使用大量的网络爬虫数据,这些数据很可能包含了各种公开的数学竞赛题目、教学材料和解答。虽然模型开发者通常会尝试过滤掉已知的评估数据,但在如此庞大的数据集中,完全避免污染是极其困难的。

更重要的是,这个发现解释了为什么错误的奖励信号反而能够提升Qwen模型的表现。当模型在强化学习过程中接收到各种奖励信号时,这些信号可能激活了模型记忆中的相关内容,从而帮助它"回忆"起正确答案。这不是真正的学习或推理,而是一种复杂的记忆检索过程。

三、构建"零污染"测试:RandomCalculation的诞生

既然发现了问题所在,研究团队面临的下一个挑战是:如何创建一个完全没有污染的测试环境?这就像需要为两个学生创造一个全新的考试,确保他们之前都没有见过任何类似的题目。

传统的做法是使用新发布的数据集,但这种方法有明显的局限性。首先,新数据集的规模往往有限,可能无法充分测试模型的能力。其次,即使是新数据集,也可能包含与训练数据相似的内容,难以完全避免污染。

研究团队想出了一个巧妙的解决方案:既然无法确保现有数据集的纯净度,为什么不创造一个全新的、完全自动生成的数据集呢?他们开发了一个自动化的数学表达式生成器,能够创建任意长度和难度的算术题目。

这个生成器的工作原理就像一个数学题目制造机。它首先创建一些基本的数学元素,包括0到100的整数,以及由这些整数构成的分数、平方和立方。然后,它使用加法、减法、乘法和除法四种基本运算,将这些元素组合成复杂的数学表达式。

通过调整组合的层数,生成器可以创建需要1到20个计算步骤的题目。每个计算步骤都需要模型进行一次基本的数学运算,步骤越多,题目的难度就越高。最终,研究团队创建了20个子数据集,每个包含1000个题目,总共涵盖了从简单到复杂的各种难度级别。

这个名为RandomCalculation的数据集有几个重要特点。首先,它是完全自动生成的,不依赖任何现有的数学题库或教材。其次,每个题目都是在Qwen2.5模型发布之后才创建的,从时间上确保了零污染。第三,虽然题目形式简单,但它们需要精确的多步计算,能够有效测试模型的数学推理能力。

为了验证这个数据集的有效性,研究团队首先测试了各种模型在零样本(即没有任何训练)情况下的表现。结果显示,所有模型的表现都随着计算步骤的增加而下降,这符合我们对数学推理难度的直觉认识。更重要的是,Qwen模型在这个数据集上没有显示出任何异常的"超能力",它的表现与其他模型基本一致。

这个发现证实了研究团队的假设:Qwen模型之前的异常表现确实是由于数据污染造成的。在一个真正干净的测试环境中,它的行为回归了正常。

接下来,研究团队使用RandomCalculation数据集重新进行了强化学习实验。他们想要回答一个关键问题:在没有数据污染的情况下,错误的奖励信号还能提升模型表现吗?

实验设计很直接:研究团队选择了包含5步和10步计算的题目,对Qwen2.5-Math-7B模型进行强化学习训练。他们测试了几种不同的奖励策略:正确奖励(正确答案得到奖励)、随机奖励(随机给出奖励)、反向奖励(错误答案得到奖励)。

结果完全符合研究团队的预期,也符合我们对强化学习的正常理解。当使用正确奖励时,模型的表现稳步提升,最终能够超越其初始性能上限。当使用随机奖励时,模型的训练变得不稳定,性能提升微乎其微。当使用反向奖励时,模型的表现迅速恶化。

这个结果清楚地表明,只有准确的奖励信号才能真正提升模型的推理能力。之前在MATH-500数据集上观察到的异常现象,确实是由于数据污染而不是某种新的学习机制。

为了进一步验证这个结论,研究团队还在Llama3.1-8B-Instruct模型上进行了相同的实验。结果显示,Llama模型的行为与Qwen模型完全一致:正确奖励带来提升,错误奖励导致恶化。这证明了在干净的测试环境中,不同模型的行为是一致的,符合我们对强化学习的理论预期。

四、技术细节:如何识别和避免数据污染

在这个研究过程中,研究团队开发了一套完整的方法来识别和避免数据污染。这些方法对于整个AI研究社区都具有重要的参考价值。

首先是污染检测方法。研究团队使用了两个关键指标来评估数据污染程度。第一个是"部分提示完成率",即模型在只看到题目部分内容的情况下,能够准确重现剩余内容的比例。第二个是"部分提示答案准确率",即模型在只看到题目部分内容的情况下,仍然能够给出正确答案的比例。

这两个指标的设计逻辑很简单:如果模型从未见过某个题目,那么它不可能仅凭部分信息就准确重现完整题目或给出正确答案。相反,如果模型在训练时见过这个题目,那么即使只给出部分信息,它也可能通过记忆检索给出正确的续写或答案。

在具体实现上,研究团队使用了ROUGE-L评分来衡量文本相似度。ROUGE-L是一种广泛使用的文本评估指标,它通过计算最长公共子序列来评估生成文本与参考文本的相似度。当ROUGE-L分数达到1.0时,说明生成文本与参考文本完全相同。

为了确保评估的公正性,研究团队还测试了多种生成配置。他们发现,使用聊天模板(Chat Template)会显著影响模型的表现。这是因为Qwen的基础模型(Base Model)和指令调优模型(Instruct Model)在训练时使用了不同的数据格式。当在没有聊天模板的情况下测试基础模型时,它的表现往往更好,因为这更接近其训练时的数据格式。

这个发现提醒我们,在评估模型时需要考虑到训练和测试环境的一致性。如果测试环境与训练环境差异过大,可能会低估模型的真实能力。但同时,这也不能解释为什么Qwen模型在错误奖励下仍然能够提升表现。

接下来是数据集构建方法。RandomCalculation数据集的构建过程体现了几个重要的设计原则。首先是时间隔离:确保所有数据都是在目标模型发布之后创建的。其次是内容隔离:使用完全自动化的生成过程,避免依赖任何现有的题库或教材。第三是可验证性:每个题目都有明确的正确答案,便于自动评估。

在实际的生成过程中,研究团队使用了一个递归的构建算法。算法从基本的数学元素开始,通过逐步组合构建出复杂的表达式。这个过程确保了生成的题目既有足够的多样性,又保持了适当的难度梯度。

为了提高强化学习的稳定性,研究团队还设计了一个特殊的奖励函数。传统的强化学习通常使用二元奖励(0或1),但这在数学计算任务中可能过于严格。RandomCalculation数据集中的答案往往是高精度的小数,模型几乎不可能得到完全正确的答案。

为了解决这个问题,研究团队设计了一个连续奖励函数,它同时考虑绝对误差和相对误差。这个函数能够给出0到1之间的奖励值,使得模型即使没有得到完全正确的答案,也能根据答案的准确程度获得相应的奖励。这种设计大大提高了强化学习的稳定性和有效性。

五、实验结果:真相大白

经过一系列精心设计的实验,研究团队终于揭开了这个神秘现象的真相。他们的发现不仅解释了为什么Qwen模型在错误奖励下仍能提升表现,也为整个AI研究社区提供了重要的启示。

在污染检测实验中,结果非常清晰。Qwen2.5-Math-7B模型在多个传统基准测试中都显示出了明显的记忆痕迹。在MATH-500数据集上,当只展示题目的前60%内容时,模型能够准确重现剩余40%内容的比例高达54.6%。这个数字远远超过了偶然性的范围,清楚地表明模型在训练时见过这些题目。

类似的模式也出现在AMC和AIME2024数据集上。在AMC数据集上,Qwen模型在60%部分提示下的完成率达到42.17%,在40%部分提示下仍有36.14%。在AIME2024数据集上,这两个数字分别是20.00%和16.67%。虽然数值有所差异,但都显著高于正常水平。

作为对比,Llama3.1-8B模型在相同测试中的表现完全不同。它在各种部分提示测试中的完成率都在5%以下,基本接近随机水平。这种巨大的差异说明,污染问题主要存在于Qwen模型的训练数据中,而不是这些基准测试本身存在问题。

更有说服力的是时间控制实验的结果。当使用LiveMathBench(版本202505)这个在Qwen2.5发布后才公开的数据集时,Qwen模型的异常表现完全消失了。它在部分提示完成任务上的表现下降到0.0%,与Llama模型基本一致。这个结果有力地证明了时间因素在数据污染中的重要作用。

在RandomCalculation数据集上的强化学习实验,结果更是一目了然。当使用正确奖励时,Qwen2.5-Math-7B模型的表现稳步提升。在5步计算任务中,模型的准确率从初始的约40%提升到了约80%。在10步计算任务中,准确率从约20%提升到了约45%。这些提升是持续和稳定的,符合我们对强化学习的预期。

但是,当使用随机奖励时,情况完全不同。模型的训练变得极其不稳定,准确率波动很大,最终的提升微乎其微。在某些情况下,模型的表现甚至会暂时下降。这说明随机奖励无法提供有效的学习信号。

最戏剧性的是反向奖励的结果。当研究团队故意给错误答案正面奖励,给正确答案负面奖励时,模型的表现迅速恶化。在几十个训练步骤内,模型的准确率就下降到了几乎为零的水平。这个结果清楚地表明,错误的奖励信号确实会误导模型的学习过程。

为了进一步验证这些发现,研究团队还在Llama3.1-8B-Instruct模型上进行了相同的实验。结果显示,Llama模型的行为与Qwen模型在干净数据集上的行为完全一致:正确奖励带来提升,随机奖励效果不佳,反向奖励导致恶化。

这些结果共同指向一个清晰的结论:Qwen模型在传统基准测试中的异常表现,确实是由于数据污染造成的。在没有污染的环境中,所有模型的行为都符合我们对强化学习的正常理解。

研究团队还发现了一个有趣的现象:即使在被污染的数据集上,Qwen模型的异常行为也有一定的限制。当奖励信号过于随机或矛盾时,模型仍然会出现性能下降。这说明数据污染并不是万能的,它只是在特定条件下才会表现出异常效果。

六、深层影响:重新审视AI评估体系

这项研究的影响远远超出了对单个模型或数据集的分析。它揭示了当前AI评估体系中的一个根本性问题,促使我们重新思考如何公正地评估AI系统的能力。

首先,这项研究暴露了现有基准测试的脆弱性。MATH-500、AMC、AIME等数据集都是公开可获得的,这意味着它们很容易被意外或故意地包含在训练数据中。当模型开发者使用大规模网络爬虫数据时,完全避免这种污染变得极其困难。这就像考试题目提前泄露一样,使得测试结果失去了公正性。

更严重的是,这种污染往往是隐蔽的。模型开发者可能并不知道他们的训练数据包含了评估数据,而评估者也可能无法察觉到异常。这种情况下,一个看似优秀的模型可能实际上只是在"背书"而不是真正理解。

研究团队的发现也解释了为什么近年来一些AI系统在特定任务上表现出了惊人的能力。虽然这些系统的能力提升可能是真实的,但其中有多少是由于数据污染造成的,需要进一步的调查和验证。

这个问题在强化学习领域尤其严重。强化学习的一个关键假设是,模型通过试错学习来改进其行为。但如果模型已经通过记忆"知道"了正确答案,那么强化学习过程就变成了一个复杂的记忆激活过程,而不是真正的学习。这可能会导致对强化学习效果的严重高估。

为了解决这个问题,研究团队提出了几个重要建议。首先是建立更严格的数据污染检测机制。每个新的基准测试都应该配备相应的污染检测工具,能够快速识别模型是否在训练时见过测试数据。

其次是推广自动生成的评估数据集。像RandomCalculation这样的自动生成数据集,虽然可能在题目类型上有一定限制,但它们能够确保评估的公正性。随着生成技术的发展,我们可以期待更多样、更复杂的自动生成数据集。

第三是建立时间隔离机制。新的基准测试应该在主要模型发布之后才公开,以确保时间上的隔离。这种做法虽然可能会减缓研究进度,但对于保证评估公正性是必要的。

第四是鼓励多模型验证。当一个模型在某个任务上表现异常出色时,应该在多个不同架构的模型上进行验证。如果只有特定模型表现出异常,那么就需要进一步调查原因。

这项研究也提醒我们,在评估AI系统时需要更加谨慎。表面上令人印象深刻的结果可能掩盖了更深层的问题。只有通过严格的实验设计和多角度的验证,我们才能真正理解AI系统的能力和局限性。

从更广泛的角度来看,这项研究也反映了AI发展中的一个重要挑战:如何在快速发展的技术环境中保持评估标准的有效性。随着AI系统变得越来越复杂,传统的评估方法可能需要不断更新和改进。

七、未来展望:构建更可靠的AI评估体系

基于这项研究的发现,我们可以预见AI评估体系将朝着更加严格和可靠的方向发展。这不仅是技术上的改进,更是整个AI研究社区的共同责任。

首先,我们可能会看到更多类似RandomCalculation的自动生成数据集。这些数据集的优势在于它们的纯净性和可控性。通过调整生成参数,研究者可以创建具有特定难度和特征的测试集,更精确地评估模型的不同能力。

在数学推理领域,未来的自动生成数据集可能会涵盖更多的数学分支,包括几何、代数、概率论等。生成算法也会变得更加复杂,能够创建需要多步推理、抽象思维的题目。这些数据集将为评估AI的数学能力提供更加全面和公正的平台。

其次,污染检测技术也会得到进一步发展。目前的检测方法主要依赖于文本相似度匹配,但这种方法有一定的局限性。未来可能会出现更加智能的检测算法,能够识别语义上的相似性,甚至是抽象概念的重叠。

机器学习技术本身也可能被用于污染检测。通过分析模型在不同数据集上的行为模式,我们可能能够自动识别出可疑的性能提升。这种方法类似于统计学中的异常检测,但会更加适应AI系统的特点。

第三,评估协议也会变得更加标准化。研究社区可能会建立统一的评估标准,规定在发布新模型时必须进行的检测和验证步骤。这些标准可能包括污染检测、多数据集验证、时间隔离等要求。

同时,我们也可能看到评估基准的动态化。传统的静态基准测试可能会被动态更新的测试系统所取代。这些系统能够根据最新的技术发展调整测试内容,确保评估的持续有效性。

从技术角度来看,这项研究也为强化学习的发展提供了重要启示。研究者们现在意识到,仅仅观察到性能提升是不够的,还需要理解提升的真正原因。这可能会推动更加细致的分析方法的发展,帮助我们区分真正的学习和简单的记忆回忆。

在模型开发方面,这项研究也可能会影响未来的训练策略。模型开发者可能会更加注重训练数据的质量控制,建立更严格的数据过滤机制。同时,他们也可能会开发新的训练方法,能够在避免数据污染的同时保持模型的强大能力。

教育和培训方面,这项研究也有重要意义。它提醒我们,AI系统的"智能"可能比我们想象的更加复杂和微妙。在培训AI研究人员时,需要更加强调批判性思维和实验设计的重要性。

最后,这项研究也可能会影响AI伦理和治理的讨论。如果AI系统的能力评估存在系统性偏差,那么基于这些评估做出的决策可能是有问题的。这要求我们在部署AI系统时更加谨慎,建立更加robust的验证机制。

总的来说,虽然这项研究揭示了当前AI评估体系的问题,但它也为构建更可靠的评估体系指明了方向。通过研究社区的共同努力,我们有理由相信未来的AI评估将更加准确、公正和可靠。

说到底,这项研究最大的价值可能不在于批评现有的方法,而在于推动整个领域向更加严谨和可靠的方向发展。就像科学史上的许多重要发现一样,质疑和验证是推动进步的重要动力。通过不断地审视和改进我们的评估方法,我们能够更好地理解AI系统的真实能力,从而更好地利用这些系统为人类社会服务。

当我们回顾这个看似简单的"魔法"现象时,我们看到的不仅是一个有趣的研究发现,更是整个AI研究社区在追求真理道路上的一次重要反思。这种反思精神,可能比任何具体的技术突破都更加珍贵。

Q&A

Q1:什么是数据污染?它对AI模型评估有什么影响? A:数据污染是指AI模型在训练时意外接触到了后来用于测试的数据,就像学生提前看到了考试题目一样。这会导致模型在测试时表现异常优秀,但实际上是在"背答案"而不是真正理解问题。这种现象会让我们高估模型的真实能力,影响对AI技术发展的准确判断。

Q2:为什么Qwen模型容易出现数据污染而Llama模型不会? A:主要原因是训练数据来源不同。Qwen模型使用了大量的网络爬虫数据,这些数据很可能包含了各种公开的数学竞赛题目和解答。而Llama模型的训练数据相对更加精选,污染程度较低。这就像两个学生使用不同的复习材料,其中一个的材料恰好包含了考试原题。

Q3:RandomCalculation数据集有什么特别之处?如何确保它没有污染? A:RandomCalculation是完全自动生成的数学计算题数据集,有三个关键特点:时间隔离(在目标模型发布后才创建)、内容隔离(不依赖任何现有题库)、可验证性(每题都有明确答案)。这就像专门为考试设计全新题目,确保所有考生都是第一次接触,从而保证测试的公平性。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值