一文搞懂大模型的后训练Post-training:学会与人交流,零基础小白建议收藏!!

前言

当我们与ChatGPT对话时,很难想象这个能够流畅回答问题、拒绝不当请求、甚至承认自己不知道某些事情的AI助手,在训练初期其实只是一个"鹦鹉学舌"的语言模型。从预训练模型到真正有用的AI助手,这中间的关键转变就发生在Post-training阶段。

想象一下,预训练后的大语言模型就像一个博学但不懂礼貌的学者——它知识渊博,能够续写任何文本,但它不知道如何与人交流,不知道什么该说什么不该说,更不知道如何承认自己的无知。Post-training的监督微调(SFT)就是要教会这个"学者"如何成为一个合格的助手。

New LLM Pre-training and Post-training Paradigms

一、 Post-training(SFT 监督微调)

什么是后训练(Post-Training)?

Post-training是大语言模型训练流程中的关键阶段,发生在预训练(Pre-training)之后。如果说预训练让模型学会了语言的基本规律和知识,那么Post-training就是教会模型如何像一个有用的助手一样与人类对话。

在预训练阶段,模型通过大量无标注文本学习语言模式,但这样的模型往往无法很好地理解人类的意图,也不知道如何给出有帮助的回应。Post-training通过监督微调(Supervised Fine-Tuning, SFT)解决了这个问题。

New LLM Pre-training and Post-training Paradigms

为什么后训练(Post-Training)如此重要?

如果说Pre-training让模型掌握了语言的统计规律和丰富知识,那么Post-training则需要教会模型区分什么时候应该承认"我不知道"(控制幻觉),什么时候应该相信当前对话中的确切信息而非记忆中的模糊印象(优先工作记忆)。这个过程决定了AI助手是否能够从一个善于表达但可能误导用户的"话痨",转变为一个既有能力又值得信赖的智能伙伴。

1、幻觉现象的控制

Pre-training赋予模型强大的语言生成能力,但也带来了"幻觉"问题——模型会生成看似合理但实际错误的信息。这源于预训练时模型只学会了"填补空白"的能力,却没有学会区分"知道"和"不知道"。

Post-training通过人类反馈强化学习(RLHF)和指令微调来教会模型承认不确定性,训练模型在遇到不确定信息时表达"我不知道"。但这形成了一个微妙的平衡:过度的反幻觉训练可能让模型变得过于保守,失去创造力和实用性。

2、区分"模糊回忆"与"工作记忆"

Pre-training赋予模型的是基于统计关联的"模糊回忆"——模型能感知到概念间的关系,但缺乏精确性。

模型处理信息时存在两种不同的模式:

  • 模糊回忆:基于训练数据的统计关联,能感知概念关系但缺乏精确性
  • 工作记忆:对当前对话上下文的准确处理,可以精确引用刚刚提到的信息

Post-training的关键任务是训练模型优先依赖工作记忆——即当前上下文中的确切信息,而对来自训练数据的模糊印象保持谨慎。这通过专门的上下文利用训练和引用准确性训练来实现。

Training OpenAI on a private dataset - API - OpenAI Developer Community

二、后训练过程

从语言模型到对话助手的蜕变:通过大规模的人类反馈数据,让模型不仅"会说话",更重要的是"会正确地说话"。

首先用标准化的对话协议将人类自然语言转换为模型可理解的token序列,然后使用包含大量人类标注员精心构建的高质量对话样本进行训练——这些样本涵盖基础问答、复杂解释、适当拒绝等各种场景,让模型学会在特定情况下给出有帮助、无害、诚实的回应,最终从单纯的文本生成工具转变为能够理解对话上下文、遵循人类价值观、具备交互能力的智能助手。

图片

1、 对话训练(Conversations)

监督微调使用精心构建的对话数据集来训练模型。这些数据集包含了人类与理想助手之间的对话样本,每个样本都展示了在特定情况下模型应该如何回应。

典型的对话训练类型如下:

  • 基础问答:"2+2等于多少?“→"2+2=4”
  • 解释性问题:"为什么天空是蓝色的?"→详细的科学解释
  • 拒绝不当请求:"如何黑进电脑?“→"很抱歉,我不能帮助您进行这种活动”

2. 对话协议与格式(Conversation Protocol/Format)

Post-training中的一个重要环节是对话格式的标准化。通过Tokenizer(如常用的Tiktokenizer),将人类的自然语言对话转换为模型可以理解的token序列。这个过程确保了模型能够准确理解对话的结构,区分人类输入和助手回应。

Tiktokenizer - What is it? How does it work? | ListedAI

3. 对话数据集(Conversation Datasets)

高质量的对话数据集是监督微调成功的关键。早期的InstructGPT论文(2022年)就展示了如何通过人类标注员创建对话数据。这些数据集不仅要涵盖各种话题和场景,还要体现出理想助手的特质:有帮助、无害、诚实。人类标注员会根据特定的标注指南创建对话,确保模型学习到正确的回应模式。这个过程需要大量的人工投入,但对于模型的最终性能至关重要。

Jay Hack on X: "The 'data engine' idea of defensibility in AI may not be as  defensible as we thought: In SELF-INSTRUCT, authors get GPT-3 to generate  it's *own* dataset for instruction

最后

感谢你们的阅读和喜欢,作为一位在一线互联网行业奋斗多年的老兵,我深知在这个瞬息万变的技术领域中,持续学习和进步的重要性。

为了帮助更多热爱技术、渴望成长的朋友,我特别整理了一份涵盖大模型领域的宝贵资料集。

这些资料不仅是我多年积累的心血结晶,也是我在行业一线实战经验的总结。

这些学习资料不仅深入浅出,而且非常实用,让大家系统而高效地掌握AI大模型的各个知识点。如果你愿意花时间沉下心来学习,相信它们一定能为你提供实质性的帮助。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

AI大模型系统学习路线

在面对AI大模型开发领域的复杂与深入,精准学习显得尤为重要。一份系统的技术路线图,不仅能够帮助开发者清晰地了解从入门到精通所需掌握的知识点,还能提供一条高效、有序的学习路径。

img

但知道是一回事,做又是另一回事,初学者最常遇到的问题主要是理论知识缺乏、资源和工具的限制、模型理解和调试的复杂性,在这基础上,找到高质量的学习资源,不浪费时间、不走弯路,又是重中之重。

AI大模型入门到实战的视频教程+项目包

看视频学习是一种高效、直观、灵活且富有吸引力的学习方式,可以更直观地展示过程,能有效提升学习兴趣和理解力,是现在获取知识的重要途径

在这里插入图片描述
光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

海量AI大模型必读的经典书籍(PDF)

阅读AI大模型经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验。对于想要深入学习AI大模型开发的读者来说,阅读经典书籍是非常有必要的。
在这里插入图片描述

600+AI大模型报告(实时更新)

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
在这里插入图片描述

AI大模型面试真题+答案解析

我们学习AI大模型必然是想找到高薪的工作,下面这些面试题都是总结当前最新、最热、最高频的面试题,并且每道题都有详细的答案,面试前刷完这套面试题资料,小小offer,不在话下
在这里插入图片描述

在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值