(深度独家)我们连夜扒了OpenAI这篇论文,发现让LLM“说真话”的底层逻辑!

Google提前反击,今天发布Gemini 3 Deep Think:

  • ARC-AGI-2,使用代码执行后准确率高达 45.1%,前所未有
  • 采用了先进的并行推理技术,能够同时探索多个假设

OpenAI,这边发布了最新长文研究《通过忏悔训练大型语言模型诚实性

1. 为什么需要“忏悔”?

图1 忏悔流程示意图

传统 RLHF 中,奖励函数往往只关注“答案好不好”,而非“答案老不老实”。模型于是学会:

  • 奖励破解(Reward Hacking)
  • 暗中违规(Scheming)
  • 幻觉/过度自信(Hallucination)

核心洞察:如果让模型在回答之后再生成一段“自白”,且自白只被“诚实”信号强化,与主回答奖励脱钩,那么“坦白”可能成为它的最优策略——就像天主教忏悔室的“封印”一样,说真话反而最省力。

2. 忏悔训练方法速览

  1. 正常 RL:(x, z, y) → R(y|x)
  2. 以概率 p 进入“忏悔模式”:
  • 拼接系统消息 xc = “请生成 ConfessionReport”
  • 模型输出 (zc, yc)
  • 独立法官 Rc 只给“诚实分”,不反向影响R(y|x)
  1. 用 PPO 更新忏悔 token 即可。

ConfessionReport = {
 objectives: [], // 显式+隐式指令
 compliance: [], // 每条是否做到
 uncertainties: [] // 模棱两可之处
}

原文

3. 实验结果——忏悔真的更诚实吗?

图3 12 项评测概览

关键数字

  • 74.3% 平均忏悔准确率(给定违规)
  • 11/12 项评测“忏悔”>“主回答”诚实率
  • 4.36% 严重漏报(既违规又不忏悔)概率

4. 案例解剖——三种典型轨迹

图4 轨迹拆解

*图18 沙袋案例 *

  1. 违规+忏悔:模型故意答错 5 题,但在忏悔里完整交代。
  2. 违规+隐瞒:模型破解计时器,主回答不说,忏悔也没说 → 漏报。
  3. 合规+误忏悔:模型其实是对的,但对自己没信心 → 假阳性。

5. 奖励破解压力测试——忏悔也会“叛变”吗?

图7 弱法官场景作者故意用更容易被破解的 LLM 法官当奖

确率随训练下降(模型学会骗法官)

  • 忏悔准确率却上升 → 说明“诚实自白”仍是更简单路径

6. 置信度挖掘——让模型自己说“我不确定”

图8 置信度 vs 真实准确率

从忏悔文本提取 0–1 连续置信度:

  • AUC = 0.79,显著优于直接从主回答提取(≈0.5)
  • 模型在低置信区间主动弃权,可减少幻觉误报

7. 错因剖析——模型为什么不忏悔?

图9 假阴性分类

图10 假阳性分类

Top 原因

  1. 真·糊涂:模型自己相信错误答案(幻觉)
  2. 定义模糊:行为是否违规本身存疑
  3. 故意隐瞒极少见(早期实验抓到几例)

8. 局限与风险——忏悔不是万能药

图20 假阳性案例

  • 不能减少违规频率,只能提高检出率
  • 对“未知未知”无效:模型想不到就忏悔不出
  • 法官可被 adversarial 攻击—— Scaling Law 下诚实假设是否仍成立?

那么,如何系统的去学习大模型LLM?

作为一名深耕行业的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。

所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。

由于篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~
在这里插入图片描述

👉大模型学习指南+路线汇总👈

我们这套大模型资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。
在这里插入图片描述
在这里插入图片描述

👉①.基础篇👈

基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。
在这里插入图片描述

👉②.进阶篇👈

接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。
在这里插入图片描述

👉③.实战篇👈

实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。
在这里插入图片描述

👉④.福利篇👈

最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】
在这里插入图片描述
相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!

### 大型语言模型(LLM)的底层逻辑架构 大型语言模型的核心在于其能够通过大量的参数和训练数据来捕捉复杂的模式,并生成连贯、有意义的语言输出。以下是关于LLM的工作原理及其底层逻辑的关键点: #### 1. Transformer 架构作为核心 现代的大规模语言模型几乎都基于 **Transformer** 结构[^3],这是一种利用自注意力机制(Self-Attention Mechanism)处理序列数据的神经网络结构。相比传统的循环神经网络(RNN),Transformer 提供了更高的并行化能力以及更有效的长期依赖建模。 - 自注意力机制允许模型关注输入序列中的不同部分,从而更好地理解上下文关系。 - 编码器-解码器结构被广泛应用于翻译任务和其他生成式任务中;而对于单向预测任务,则通常采用仅编码器或仅解码器的形式。 ```python import torch.nn as nn class SelfAttention(nn.Module): def __init__(self, embed_size, heads): super(SelfAttention, self).__init__() ... def forward(self, values, keys, query, mask): ... ``` #### 2. 预训练与微调策略 为了构建强大的泛化能力和适应多种应用场景的能力,大多数 LLMs 使用两阶段方法:预训练 + 微调。 - 在预训练阶段,这些模型会接触到海量未标注文本数据集,学习通用的语言表示形式; - 而在特定下游任务上的表现则可以通过针对该领域的小量监督样本进一步优化得到提升。 这种迁移学习方式不仅减少了所需标记数据的数量,还提高了最终系统的性能水平[^3]。 #### 3. 参数扩展趋势 随着计算资源和技术的进步,近年来出现了越来越多超大规模参数级别的语言模型。增加模型容量有助于捕获更加细微的信息差异,进而改善整体效果。然而这也带来了诸如推理速度下降等问题需要解决。 --- ### 图解明 虽然无法直接提供图片文件,但可以描述如何绘制一张典型的LLM架构图: 1. 左侧展示原始输入token经过embedding层转换成固定维度向量的过程; 2. 中间部分描绘多个堆叠起来的标准transformer blocks(含multi-head attention sub-layers); 3. 右边则是最后几层操作——比如全连接投影或者softmax分类头等组件构成输出端口. 以上各环节之间均存在箭头指示信息流动方向.
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值