大神Karpathy亲授!最新LLM入门视频课!

 Datawhale干货 

频:Andrej Karpathy,编译:AI寒武纪

人工智能大神 Andrej Karpathy 全新视频发布:时长 3 小时 31 分钟的深度解析 - 《深入剖析 ChatGPT 等大型语言模型》。

Andrej Karpathy 发布了全新的视频力作,带你进行一场针对大众的深度探索,揭秘驱动 ChatGPT 及相关产品的大型语言模型 (LLM) AI 技术。这部时长超过三小时的视频,全面覆盖了 LLM 的完整训练堆栈,从模型的开发过程,到如何建立理解其 “心理学” 的心智模型,再到如何在实际应用中最大化其效用,都进行了细致的讲解。

强烈建议大家在这个总结的基础上看看原版视频。

视频链接:

https://www.youtube.com/watch?v=7xTGNNLPyMI

如无法查看,可自行搜索:

《Deep Dive into LLMs like ChatGPT》

62fc579a4293c6cbabbe94f7fe8fd350.png

视频深入探讨了 LLM 构建的各个主要阶段:

  1. 1. 预训练 (Pretraining): 涵盖数据准备、Tokenization 分词技术、Transformer 神经网络的输入/输出及内部结构、推理过程、GPT-2 训练示例,以及 Llama 3.1 基础模型推理示例

  2. 2. 监督微调 (Supervised Finetuning): 重点讲解对话数据的使用,并从 “LLM 心理学” 的角度分析幻觉现象、工具的使用、知识与工作记忆、自我认知、模型需要 tokens 才能思考、拼写问题以及参差不齐的智能等问题

  3. 3. 强化学习 (Reinforcement Learning): 阐释“熟能生巧”的强化学习理念,并结合 DeepSeek-R1、AlphaGo 和 RLHF 等实例,深入剖析强化学习在 LLM 训练中的应用

Karpathy 特别强调,这部视频是为其 “大众受众” 系列视频而设计,即使没有技术背景的观众也能轻松理解。视频旨在帮助观众直观地理解 ChatGPT 等 LLM 的完整训练流程,并通过丰富的示例,以及对当前能力、发展现状和未来趋势的思考,让观众对 LLM 技术有更深入的认识

(与一年前发布的 “LLMs 导论” 视频不同,该视频仅为一次随机演讲的重新录制。本次的新视频是一次更为全面和深入的尝试,旨在更完整地呈现 LLM 技术的全貌。之前的导论视频仍可作为补充,因为它更深入地探讨了其他主题,例如 LLM 操作系统和 LLM 安全。)

预训练数据 (互联网)

LLM 的构建首先从预训练阶段开始。第一步是下载并处理互联网数据。Karpathy 推荐参考 Hugging Face 的 FineWeb 数据集,这是一个代表性的高质量预训练数据集。大型 LLM 提供商,如 OpenAI、Anthropic 和 Google,都有类似的内部数据集。预训练数据的目标是获取海量、高质量、多样化的互联网文本,以赋予模型广泛的知识基础。

构建 FineWeb 这样的数据集是一个复杂的多阶段过程,包括:

  • • URL 过滤: 使用黑名单过滤恶意网站、垃圾网站、营销网站、种族歧视网站、成人网站等,排除不良信息源。

  • • 文本提取: 从原始 HTML 网页中提取纯文本内容,去除 HTML 标记、CSS、导航栏等非文本元素。

  • • 语言过滤: 使用语言分类器识别网页语言,FineWeb 侧重英语,例如仅保留 65% 以上内容为英语的网页。语言过滤的策略会影响模型的多语言能力。

  • • 去重与 PII 移除: 进行数据去重,并移除个人身份信息 (PII),如地址、社保号码等,保护隐私。

最终,FineWeb 数据集大小约为 44TB,包含约 15 万亿 tokens。Karpathy 用 200 个网页的文本拼接展示了原始互联网文本的庞大规模和复杂性,强调下一步是训练神经网络来学习这种文本的模式和结构。

Tokenization (分词)

在将文本输入神经网络之前,需要进行 Tokenization,将文本转换为神经网络能够处理的数字符号序列。神经网络期望输入的是一维的符号序列,且符号集是有限的。

  • • UTF-8 编码: 将文本转换为计算机可读的比特流,每个字符用 8 比特表示。

  • • Bytes (字节) 序列: 将比特流分组为字节序列,每个字节代表一个符号,符号数量为 256 个。字节序列比比特序列更短,但符号集更大。

  • • Byte Pair Encoding (BPE) 算法: 进一步压缩序列长度,通过寻找频繁出现的连续字节对,并将其合并为一个新的符号。重复此过程可不断缩短序列长度,同时增加词汇量。

  • • Tokenization 的目标: 在序列长度和词汇量之间取得平衡。GPT-4 使用了 100,277 个 tokens。

Karpathy 介绍了 Tiktokenizer 工具,用于探索 GPT-4 的 Tokenization 过程。通过示例,展示了不同文本片段如何被切分为 tokens,以及 tokens 的 ID 和与文本的对应关系。强调 Tokenization 是将文本转换为神经网络可处理格式的关键步骤,最终文本数据被表示为一维的 token 序列。

神经网络的输入/输出

经过 Tokenization 后,互联网文本被转化为 token 序列。预训练阶段的目标是训练神经网络,使其能够建模 token 序列中 token 之间的统计关系,即预测序列中下一个 token。

  • • 滑动窗口: 从 token 序列中提取固定长度的 token 窗口作为上下文 (context)。窗口长度可变,实际应用中可能达到 8000 tokens。

  • • 上下文作为输入: 将上下文 tokens 输入神经网络。

  • • 输出概率分布: 神经网络输出一个概率分布,表示词汇表中每个 token 作为下一个 token 的概率。词汇表大小为 100,277,因此输出向量长度也为 100,277。

  • • 损失函数与反向传播: 使用损失函数衡量模型预测与真实下一个 token 的差异。通过反向传播算法调整神经网络的参数 (权重),使模型预测概率更接近真实分布。

  • • 批量训练: 在大量 token 窗口上并行进行训练和参数更新,提升训练效率。

神经网络训练是一个迭代优化过程,目标是使模型的预测概率与训练数据中 token 的统计模式相一致。

神经网络内部结构

神经网络内部是一个复杂的数学表达式,将输入 tokens 与网络参数 (权重) 混合,生成输出预测。

  • • 参数 (权重): 现代 LLMs 拥有数十亿甚至数万亿的参数。初始参数随机设定。

  • • 数学表达式: 神经网络内部的数学表达式由乘法、加法、指数运算、除法等简单运算构成。神经网络架构研究致力于设计高效的数学表达式,以实现强大的表达能力、可优化性和并行性。

  • • Transformer 架构: Transformer 是一种特殊的神经网络结构,被广泛应用于 LLMs。Karpathy 推荐使用 Transformer Neural Net 3D visualizer 网站,以可视化方式理解 Transformer 的内部结构。

  • • Transformer 的组成: Transformer 包含 Token Embedding 层、多层 Transformer Block (包含 Attention 机制和多层感知机 MLP)、Layer Normalization 层等。信息在网络中流动,最终输出 token 预测的 logits (用于计算概率)。

  • • 神经元: 可以将 Transformer 中的中间值 loosely 地理解为“合成神经元”的激活率,但强调这些神经元比生物神经元简单得多,没有记忆,是无状态的。

神经网络的核心是一个参数化的数学函数,训练的目标是找到一组最优参数,使得模型的预测与训练数据中的模式相符。

推理 (Inference)

推理阶段是使用已训练好的模型生成新文本的过程。

  • • 起始 tokens (prefix): 推理从用户提供的起始文本 (prefix) 开始,例如用户在 ChatGPT 中输入的 prompt。

  • • 概率采样: 将 prefix tokens 输入模型,模型输出下一个 token 的概率分布。基于此概率分布进行采样,选择一个 token 作为模型的输出。采样过程具有随机性 (stochastic)。

  • • 迭代生成: 将模型输出的 token 添加到序列末尾,作为新的上下文,再次输入模型,重复采样过程,逐个 token 生成后续文本。

  • • 随机性与多样性: 由于采样过程的随机性,即使对于相同的 prefix,模型每次生成的文本也可能不同。模型生成的是训练数据的“remixes”,而非完全复现训练文本。

  • • ChatGPT 中的推理: 当用户与 ChatGPT 交互时,模型参数是固定的,只进行推理过程,根据用户输入完成 token 序列的生成。

GPT-2: 训练与推理示例

Karpathy 以 OpenAI 的 GPT-2 模型为例,更具体地解释了训练和推理过程。GPT-2 是 GPT 系列的第二代模型,是现代 LLM 技术栈的早期代表。

  • • GPT-2 模型参数: 1.5 亿参数,上下文长度 1024 tokens,训练数据约 1000 亿 tokens。相比现代模型规模较小。

  • • GPT-2 复现项目 (llm.c): Karpathy 尝试复现 GPT-2 的训练过程,并开源项目 llm.c,展示了训练 GPT-2 的成本已大幅降低,硬件和软件的进步是关键因素。

  • • 训练过程实时监控: 展示了 GPT-2 模型训练过程的实时监控界面,关键指标是损失 (loss) 值,损失值越低表示模型预测性能越好。训练过程中,模型不断生成文本示例,随着训练进行,生成文本的连贯性和质量逐渐提高。

  • • 计算资源: GPT-2 训练需要强大的计算资源,通常在云端 GPU 集群上进行。Karpathy 使用 8x H100 GPU 节点进行训练,展示了 GPU 在 LLM 训练中的核心作用,以及 Nvidia GPU 市场价值飙升的原因。

  • • 数据中心与 GPU 需求: 大型科技公司对 GPU 的巨大需求推动了 GPU 技术和市场的快速发展。

Llama 3.1 Base Model 推理

由于训练大型模型成本高昂,Karpathy 转而使用 Meta 发布的 Llama 3 模型进行演示。Llama 3 是一个更现代、更大规模的模型,包含 40.5 亿参数,训练数据达 15 万亿 tokens。

  • • Base Model 与 Instruct Model: 区分了 Base Model (基础模型) 和 Instruct Model (指令模型)。Base Model 仅是 token 模拟器,无法直接作为助手使用。Instruct Model 经过指令微调,可以回答问题和执行指令。

  • • Base Model 的发布: 模型发布通常包括模型代码 (描述网络结构) 和模型参数 (权重)。

  • • Hyperbolic 平台: Karpathy 使用 Hyperbolic 平台演示 Llama 3.1 Base Model 的推理能力。强调务必选择 "Llama 3.1 405B Base" 模型。

  • • Base Model 非助手特性: 演示 Base Model 无法直接回答问题,例如提问 "What is 2 + 2?",Base Model 只是根据互联网文本的统计模式进行续写,而非给出答案。

  • • Base Model 的随机性: Base Model 的输出具有随机性,即使对于相同的 prompt,每次生成的文本也可能不同。

  • • Base Model 的知识蕴含: 尽管 Base Model 并非直接可用的助手,但它在预训练阶段学习了大量世界知识,并将这些知识存储在网络参数中。

  • • 知识提取: 通过巧妙的 prompt 设计 (例如 "Top 10 landmarks in Paris"),可以从 Base Model 中提取出一定的知识。但强调 Base Model 的知识是模糊、概率性和统计性的,并非精确记忆。

  • • 记忆与复述: 演示 Base Model 可以复述训练数据中频繁出现的文本 (例如 Wikipedia 条目),这被称为“复述 (regurgitation)”,通常是不期望的。

  • • 幻觉 (Hallucination): 演示 Base Model 在面对超出其知识范围的问题 (例如 2024 年美国大选结果) 时,会基于其训练数据进行推测和“幻觉”,生成看似合理但不真实的内容。

  • • In-context Learning (情境学习): 演示 Base Model 具备情境学习能力,可以通过 few-shot prompt (少量示例) 学习并执行特定任务,例如语言翻译。

  • • Prompt Engineering 技巧: 展示如何通过构建类似对话网页的 prompt,将 Base Model “prompt hack” 成一个简单的助手。

从预训练到后训练 (pretraining to post-training)

总结了预训练阶段的目标是获得 Base Model,一个互联网文本 token 模拟器。但为了得到可用的助手,需要进入后训练阶段。后训练阶段计算成本较低,但至关重要,目标是将 Base Model 转变为能够回答问题、执行指令的助手。

后训练数据 (对话) (post-training data (conversations))

后训练的核心是使用对话数据对 Base Model 进行进一步训练。

  • • 对话数据示例: 展示了对话数据的示例,包括多轮对话、助手个性化、拒绝回答不当问题等。

  • • 通过对话数据编程助手行为: 通过构建对话数据集,隐式地“编程”助手的行为模式。

  • • 数据来源:人工标注: 对话数据主要由人工标注员创建,标注员根据指令,为给定的用户 prompt 编写理想的助手回复。

  • • Tokenization 对话: 展示了如何将对话编码为 token 序列,使用了特殊 token (例如 IM startIM end) 来标记用户和助手的回合。

  • • 推理时对话格式: 展示了推理时如何构建对话上下文,并从模型中采样生成助手回复。

  • • InstructGPT 论文: 介绍了 OpenAI 的 InstructGPT 论文,这是首次公开讨论如何通过对话数据微调语言模型使其成为助手的论文。

  • • 人工标注员与标注指令: 介绍了 InstructGPT 论文中描述的人工标注员和标注指令,强调标注指令的核心原则是 "helpful, truthful, and harmless" (有帮助、真实、无害)。

  • • 开源对话数据集: 介绍了 Open Assistant 项目,这是一个尝试复现 InstructGPT 数据集的开源项目。展示了 Open Assistant 数据集中的对话示例,包括用户 prompt 和助手回复。

  • • 现代数据集合成化趋势: 指出当前对话数据集的合成化趋势,LLMs 被广泛用于辅助生成对话数据,例如 UltraChat 数据集。

  • • ChatGPT 的本质: 强调与 ChatGPT 对话的本质,并非与神奇的 AI 交流,而是与一个统计模型互动,该模型模仿了接受过标注指令训练的人工标注员的行为。ChatGPT 的回答是对标注员行为的统计模拟。

  • • 案例:推荐巴黎地标: 通过案例说明 ChatGPT 的回答是对人工标注员可能给出的答案的统计模拟,而非模型自行研究和排序地标。

幻觉、工具使用、知识/工作记忆

开始讨论 LLM 的“心理学”特性,首先关注幻觉问题。

幻觉的来源: 通过 "Who is Orson Kovats?" 的例子,解释了幻觉的产生原因:模型在训练数据中学习到以自信的语气回答 "who is" 类型的问题,但在面对未知问题时,仍然会模仿这种自信的语气,编造答案

Falcon 7B 模型演示: 使用 Falcon 7B 模型演示幻觉现象,模型对 "Orson Kovats" 编造了多个不同的身份

ChatGPT 的改进: 对比 ChatGPT,它能够识别自身知识边界,并告知用户 "I don't know"。

缓解幻觉的方法: Meta 公司在 Llama 3 系列模型中采用的方法:

  • • 知识边界探测: 通过提问模型,判断模型对哪些事实知识掌握不足。

  • • 负例数据增强: 针对模型知识不足的问题,在训练数据集中加入 "I don't know" 的回答示例,让模型学习在不确定时拒绝回答。

工具使用 (Tool Use): 为了进一步提升模型的事实性和准确性,引入工具使用机制,例如 Web Search

  • • Web Search 工具原理: 模型可以生成特殊 token (例如 search startsearch end) 来调用 Web Search 工具。程序接收到这些 token 后,暂停模型生成,执行 Web Search 查询,并将搜索结果文本插入到模型的上下文窗口中。

  • • 工作记忆 (Context Window): 上下文窗口被视为模型的工作记忆,模型可以直接访问和利用上下文窗口中的信息。

  • • 工具使用训练: 通过对话数据集示例,训练模型学习何时以及如何使用 Web Search 工具。

  • • ChatGPT 工具使用演示: 演示 ChatGPT 使用 Web Search 工具回答 "Who is Orson Kovats?" 的过程,模型引用搜索结果并给出参考文献。

知识分类: 区分了模型参数中存储的“模糊记忆” (pre-training knowledge) 和上下文窗口中的“工作记忆” (context window knowledge)

工作记忆的重要性: 强调将重要信息放入上下文窗口的重要性,例如总结长文本时,将原文复制粘贴到 prompt 中比仅仅依赖模型的记忆效果更好。

自我认知 (knowledge of self)

讨论 LLM 是否具有自我认知的问题。

LLM 没有持久自我: 强调 LLMs 是无状态的 token tumbler,每次对话都是从头开始,没有持久的自我意识或身份

模型身份的来源: 解释了模型回答 "What model are you?" 等问题时,实际上是在进行统计推测,基于训练数据中最常见的答案来回答。例如,Falcon 模型可能会回答 "I'm ChatGPT by OpenAI",因为互联网上存在大量类似回答

硬编码模型身份: 介绍了两种硬编码模型身份的方法:

  • • 数据硬编码: 在训练数据集中加入关于模型自身的问题和预设答案。

  • • 系统消息 (System Message): 在对话开始时,通过 system message 将模型身份信息注入到上下文窗口中。

模型需要 tokens 才能思考

强调 LLMs 的计算能力受限于 token 处理的顺序性和计算资源的限制。

  • • 计算资源限制: 每个 token 的处理都只有有限的计算资源,神经网络的层数有限,单次 forward pass 的计算量有限。

  • • 分布式计算: 复杂的计算和推理需要分布在多个 tokens 上完成,不能期望模型在单个 token 内完成过多计算。

  • • 逐步推理的重要性: 在 prompt 中引导模型逐步推理,生成中间结果,有助于模型解决复杂问题。对比了直接给出答案和逐步推理两种回答方式的优劣。

  • • 单 token 回答的局限性: 通过实验证明,对于简单的数学问题,模型可以尝试单 token 回答,但对于更复杂的问题则会失败。

  • • 工具使用 (Code Interpreter) 的优势: 推荐使用 Code Interpreter 等工具来解决计算问题,因为代码执行比模型的“心算”更可靠。

  • • 计数能力的局限性: 模型在计数方面表现不佳,因为计数需要大量计算,难以在单个 token 内完成。推荐使用 Code Interpreter 进行计数任务。

Tokenization 再探:模型在拼写方面的不足

再次回到 Tokenization 的话题,强调模型在拼写相关任务上的不足

  • • 模型不直接处理字符: 模型处理的是 tokens,而非字符。Tokenization 导致模型难以处理字符级别的任务。

  • • 字符级任务的失败: 演示模型在 "ubiquitous" 字符串上提取每三个字符的任务失败。

  • • 工具使用 (Code Interpreter) 的解决: 使用 Code Interpreter 可以解决拼写相关任务,因为 Python 可以直接处理字符。

  • • 草莓中 R 的数量: 提及 "strawberry" 中 "R" 的数量的著名例子,说明模型在字符计数方面的早期困难。

参差不齐的智能 (jagged intelligence)

强调 LLMs 的能力呈现“瑞士奶酪”状,在很多领域表现出色,但在某些简单任务上却会犯错,体现了“参差不齐的智能”。

  • • 简单比较大小的失败: 演示模型在比较 "9.11" 和 "9.9" 大小时犯错的例子,即使是简单的比较,模型也可能出错。

  • • 圣经经文的干扰: 推测模型在比较 "9.11" 和 "9.9" 大小时,可能受到训练数据中圣经经文的影响,导致误判。

  • • 对 LLM 的正确态度: 强调要将 LLMs 视为随机系统,既强大又不可完全信任,应作为工具使用,而非完全依赖。

从监督微调到强化学习

回顾了 LLM 训练的三个阶段:预训练、监督微调 (SFT) 和强化学习 (RL)。

  • • 预训练 (Pre-training): 在互联网文档上训练,获得 Base Model,一个互联网文档模拟器。

  • • 监督微调 (SFT): 在对话数据集上微调 Base Model,使其成为助手。SFT 模型模仿人工标注员的行为。

  • • 强化学习 (RL): RL 是后训练的第三阶段,算法与预训练和 SFT 相同,但数据和目标不同。RL 阶段旨在进一步提升模型的能力,尤其是在推理和问题解决方面。

强化学习 (reinforcement learning)

深入探讨强化学习阶段,并以教学场景类比,解释 RL 的作用。

  • • 教学场景类比: 将 LLM 训练比作教育过程,预训练对应于阅读教材,SFT 对应于学习例题,RL 对应于做练习题。

  • • RL 的核心思想:试错学习: RL 的核心思想是通过试错和奖励机制,让模型自主学习最优策略。

  • • 奖励信号:正确答案: 在可验证领域 (例如数学题),奖励信号可以是模型的回答是否正确。

  • • 模型自主探索: RL 允许模型自主探索不同的解题路径,发现更有效的策略,而非仅仅模仿人类专家。

  • • RL 训练过程: 模型生成多个候选解,根据是否得到正确答案进行奖励,并使用强化学习算法更新模型参数,鼓励生成更可能得到正确答案的解。

  • • RL 的优势: RL 能够让模型发现人类专家可能忽略的更有效的解题策略。SFT 模型只是模仿专家,而 RL 模型可以超越专家水平。

DeepSeek-R1

在大型语言模型(LLMs)的训练过程中,强化学习(RL)正逐渐成为一个至关重要的阶段,尤其是在提升模型的推理能力方面。DeepSeek-R1,是由中国公司 DeepSeek 开发的模型,因其公开的论文而备受瞩目,这篇论文详细阐述了强化学习微调在大型语言模型中的重要性,并分享了复现结果所需的关键细节,重新激发了公众对 RL 在 LLMs 应用中的兴趣。

强化学习的重要性与优势

DeepSeek-R1 的论文强调了 RL 训练对于提升 LLMs 性能的关键作用,尤其是在解决需要复杂推理的问题时。传统的前期训练和监督微调(SFT)阶段主要关注知识的获取和模仿人类专家的行为。而 RL 阶段则更进一步,如同学生通过练习题来巩固知识一样,它让模型在试错中学习,发现更有效的解题策略。

DeepSeek-R1 的研究表明,经过 RL 训练的模型在解决数学问题时的准确率显著提升。更令人印象深刻的是,模型在提升准确率的同时,也发展出了更长的回答,这并非偶然,而是因为模型学会了通过更细致的思考过程来解决问题。

涌现的思考能力:链式思考(Chain of Thought)

DeepSeek-R1 展现出的一个重要特性是其涌现的“链式思考”能力。模型在解决问题时,不再是简单地模仿人类的答案,而是展现出类似人类思考过程的步骤,例如:

  • • 步骤分解: 模型会将复杂问题分解为更小的步骤,逐步求解。

  • • 自我评估与回顾: 模型会主动进行自我评估,检查每一步的计算或推理是否正确,甚至会主动回顾之前的步骤。

  • • 多角度尝试: 模型会尝试从不同角度分析问题,甚至尝试多种解题方法。

  • • 回溯与修正: 当模型发现之前的步骤可能存在问题时,会进行回溯并修正。

这些“思考”过程并非人为硬编码,而是模型在强化学习过程中,为了追求更高的解题准确率而自发涌现出来的策略。DeepSeek-R1 通过 RL 训练,学会了类似人类进行数学问题求解时的复杂思考模式,这显著提升了其解决复杂问题的能力。

DeepSeek-R1 的可访问性与应用

DeepSeek-R1 模型以 MIT 许可证开源,这意味着任何人都可以下载和使用其权重,这在当时开源社区中是十分罕见的,尤其对于如此强大的模型而言。用户可以通过多种途径体验 DeepSeek-R1 的能力:

  • • DeepSeek 官方平台: 在 chat.deepseek.com 网站上,用户可以通过开启 “Deep Think” 按钮来体验 R1 模型。

  • • Together AI 平台: Together AI 等推理提供商也托管了 DeepSeek-R1 模型,用户可以在这些平台上选择 DeepSeek-R1 进行交互。

虽然 DeepSeek-R1 仍然处于实验阶段,但它代表了 LLMs 发展的前沿方向,预示着通过强化学习,模型不仅能模仿人类,更能发展出超越简单模仿的、更深入的推理和思考能力。

AlphaGo

将 LLM 的 RL 训练与 AlphaGo 在围棋领域的突破联系起来,强调 RL 的强大潜力。

  • • AlphaGo 的成功: AlphaGo 系统在围棋游戏中超越人类顶尖棋手,证明了 RL 在复杂策略学习方面的强大能力。

  • • 监督学习 vs. 强化学习: 对比了监督学习 (模仿人类棋谱) 和强化学习 (自我对弈) 在围棋游戏中的效果。RL 模型可以超越监督学习模型,达到甚至超越人类水平。

  • • Move 37: AlphaGo 下出的 "Move 37" 震惊围棋界,这是一个人类专家难以理解但事后证明极其精妙的棋步,体现了 RL 模型可能发现人类未知的策略。

  • • RL 的未来展望: 展望 RL 在 LLM 领域应用的未来,认为 RL 有可能让 LLMs 发展出超越人类的推理和思考能力。

基于人类反馈的强化学习 (RLHF)

讨论如何在不可验证的领域 (例如创意写作) 应用强化学习,介绍了基于人类反馈的强化学习 (RLHF) 方法。

  • • 不可验证领域的问题: 在创意写作等领域,难以像数学题一样自动评估答案的正确性,无法直接应用传统的 RL 方法。

  • • RLHF 的核心思想:间接监督: RLHF 的核心思想是训练一个奖励模型 (Reward Model) 来模拟人类的偏好,然后使用奖励模型作为 RL 的奖励信号。

  • • 奖励模型训练: 通过人类对模型生成结果的排序 (而非直接评分) 来训练奖励模型,降低了人工标注的难度。

  • • 奖励模型作为模拟人类偏好的函数: 奖励模型成为人类偏好的模拟器,RL 算法可以针对奖励模型进行优化。

  • • RLHF 的优势: RLHF 允许在不可验证领域应用 RL,并可能通过降低标注难度提升数据质量。

  • • RLHF 的局限性: 奖励模型只是人类偏好的 lossy 模拟,可能被模型“game”,导致模型生成看似高分但实际质量低劣的结果 (对抗样本)。

  • • RLHF 不是真正的 RL: 强调 RLHF 中的 RL 与传统 RL 的区别,RLHF 中的奖励函数 (奖励模型) 是可被 game 的,导致 RLHF 的效果有限。

  • • RLHF 的实际应用: 尽管有局限性,RLHF 仍然是一种有效的微调方法,ChatGPT 等模型也使用了 RLHF 技术。

未来展望

展望 LLM 的未来发展趋势。

  • • 多模态 (Multimodal): LLMs 将迅速发展为多模态模型,能够处理文本、音频、图像等多种模态的数据,实现更自然的交互。

  • • 长期任务执行 (Agents): LLMs 将发展出更强的长期任务执行能力,成为能够自主完成复杂任务的智能体 (Agent)。

  • • 无处不在的 LLMs (Pervasive and Invisible): LLMs 将更深入地集成到各种工具和应用中,变得更加普及和隐形。

  • • 计算机使用能力 (Computer Using): LLMs 将具备更强的计算机使用能力,例如操作键盘鼠标,执行更复杂的任务。

  • • 测试时训练 (Test Time Training): 未来的 LLMs 可能会具备测试时训练能力,能够持续学习和适应新任务,克服当前上下文窗口有限的局限。

保持追踪 LLMs 的进展 (keeping track of LLMs)

推荐了跟踪 LLM 最新进展的资源:

  • • LM Arena: LLM 排行榜,基于人类比较结果进行模型排名

  • • AI News Newsletter: AI 新闻通讯,提供全面的 AI 领域动态信息。

  • • X : 在 X 上关注 AI 领域的专家和机构,获取最新信息。

在哪里找到 LLMs (where to find LLMs)

介绍了获取和使用 LLMs 的途径:

  • • 专有模型平台: OpenAI (chatgpt.com), Google (gemini.google.com, ai.google.dev) 等官方平台。

  • • 开源模型推理平台: Together AI (together.ai) 等平台,提供多种开源 LLM 的在线推理服务。

  • • Base Model 平台: Hyperbolic (hyperbolic.xyz),提供 Llama 3.1 Base Model 等基础模型的在线推理服务。

  • • 本地运行 (Local Inference): LM Studio (lmstudio.ai) 等工具,允许用户在本地计算机上运行较小的 LLM 模型。

总结 (grand summary)

最后,Karpathy 再次总结了整个视频的核心内容,回顾了 LLM 的训练流程 (预训练、SFT、RL),强调了 LLM 的本质是 token 序列生成器,以及其能力的局限性和“瑞士奶酪”特性。强调要将 LLMs 作为工具使用,谨慎对待其输出,并保持批判性思维。同时,也展望了 LLM 技术的未来发展,以及 RL 在推动 LLM 发展中的重要作用。

cfdd866dc211fb7e6efc6c84a8cb86b8.png

一起“赞”三连

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值