**
最近发现一个非常好的学习资料,可以一次性的掌握从理论到从头创建一个大模型,再到预训练,SFT(有监督微调),甚至到最后还有RAG以及Agent的搭建方式,非常的齐全。
就是这个Happy-LLM,Github将近10000星了,上升势头非常快。
由于下个学期可能需要讲一些类似的内容,所以自己过了一遍,教程一共有7章,我把它分成了三个部分:1-4理论部分, 5-6大模型创建和训练实践,7大模型扩展应用。
学习过程中我总结出这么几点学习经验:
- 如果你是科班生,自学过NLP(自然语言处理)的相关内容,你可以跳过第一章,只是一些基础概念知识;
- 如果你还在读研或者以后想要搞大模型相关的科研,建议多花点时间读2,3章,因为这里面会有大量的数学公式以及模型介绍,非常的细,可以拿笔和本出来跟着算(模型魔改的Idea就从这里出了)
- 如果你想了解LLM大模型训练背后的流程,那么第四章一定要好好看
- (有卡再看)第五章讲的是如何用代码搭一个Llama2出来,以及如何训练,但即使是很小的模型,作者在8张Nvidia 4090的前提下,都花了46个小时。
- (没卡也能看)第六章适合穷人玩,从头训练一个大模型对于个人来说没有特别大的意义,用已有的开源大模型做继续训练会更加适合普通人,这里面用的是Qwen的1.5B模型,对于一般的笔记本来说都没什么问题,所以强推!
- (第七章选读)RAG,Agent的构建其实有更方便的手段,比如LLM框架LangChain,LazyLLM等。
所以总结下,要搞科研的,2,3,5必看,可以深入到算法层次;长见识的第四章看完足够了;有钱有卡的大佬,可以着重看第五章,从头训练一个大模型,看着进度条一点点走,Loss一点点降是非常有成就感的。
话不多说,我来带大家过一遍这个教程的核心内容。
第一章 NLP 基础概念
大模型的最前身其实来自于NLP,现在大模型的很多任务,比如翻译,回答,词性分析啥的,最开始都是NLP的工作,并且这些工作单个拿出来都是NLP的细分研究方向。
这一章就是给历史源头讲起,感兴趣的同学可以看看,就当看历史书了,可以对大模型能做的事情有一个理论性的认识。
第二章 Transformer架构
这一章我上面提到了,如果有意向在这个方向搞科研的,一定得仔细看,因为不管怎么样,Transformer这个东西你怎么都绕不过去,这里不学也得在别的地方学。
2.1 部分会详细的讲注意力机制,特别是它的由来,从前馈神经网络(Feedforward Neural Network,FNN)到卷积神经网络(Convolutional Neural Network,CNN),再到循环神经网络(Recurrent Neural Network,RNN),最后再分析他们各自的缺点:
也就是第一没办法捕获长序列的相关关系以及第二限制并行计算能力。
这个部分的伪代码建议仔细看看,讲的很细致,还是那句话,你绕不开这块的。
剩下的部分更多的是代码实现,就是一步步的教用代码实现下面这个经典的Transformer模型。
每一块都会细致的讲解以及附有代码,所以多看几次肯定能看懂的。
第三章 预训练语言模型
这一章的内容非常有意义,因为它讲了为什么ChatGPT以前的同类产品为什么没有获得如此大的影响,其实在ChatGPT之前还有Bert这个非常有名的模型,是Google做的,也是基于Transformer结构的(毕竟先Google发明了Transformer)。
并且将主流的结构分为了三种,并且列举对应的代表模型。
模型流派 | 代表模型 | 一句话功能说明 | 日常类比 | 记住它的关键词 |
---|---|---|---|---|
Encoder-only(先“读懂”再回答) | BERT、RoBERTa、ALBERT | 把整段话先读透,再给出标签或答案。 | 像老师先通读作文,再在旁边批注“优/良/差”。 | “填空式”训练(MLM)、双向理解、文本分类 |
Encoder-Decoder(先读懂,再翻译/改写) | T5 | 任何语言任务都转成“输入文字→输出文字”。 | 同声传译:耳朵听、脑子想、嘴巴说。 | 文本到文本、大一统、任务前缀 |
Decoder-only(一边读一边写,专攻生成) | GPT-3/4、LLaMA、ChatGLM | 根据已写内容继续往下写,越写越像真人。 | 接龙写故事:上一句决定下一句。 | 续写预测、长文本创作、对话 |
从表中可以看到,GPT用的是Decoder-only流派,也就是它的核心是“一边读一边写,专注于生成”,这也是GPT中G代表的Generative生成式的来源,所以也对应了GPT擅长的领域:续写预测、长文本创作、对话等。
这一章也很推荐,毕竟流行趋势这种东西轮流换,说不定过几年其他流派又会兴盛,彻底搞懂最好。
第四章 大语言模型
这一章再经过1-3章的铺垫,其实就很容易了,如果你已经有基础,其实可以直接从这张开始看。它讲的东西结构很清晰,主要分为了四部分:
4.1 LLM是什么
超大规模:参数≥数十亿,在数 T token上预训练(GPT-3 175 B≈开端)。
与传统PLM差异:同架构同任务,但规模引发“量变→质变”,呈现全新能力。
4.2 LLM的四大“看家本领”
- 涌现(Emergence):模型越大,突然解锁复杂技能。
- 上下文学习(In-context Learning):用几句话示范即可完成新任务,几乎不用再微调。
- 指令遵循(Instruction Following):理解自然语言指令,像 ChatGPT 那样“一句唤醒,多步完成”。
- 逐步推理(Step-by-Step Reasoning):能写“思维链”,解决多步逻辑、数学与编码问题。
4.3讲了它的额外特性以及第四部分从理论上讲了大模型训练的三个主要步骤,也就是下面的Pretrain,SFT和RLHF。
总结成表格就是下面的内容,这部分需要理解下,理解了之后就能搞懂为什么现在都说搞底模很吃亏,而是搞post-training+RL的路子见效最快这种说法。
阶段 | 目标 & 关键点 | 难点 |
---|---|---|
① 预训练(Pretrain) | Decoder-Only + 因果语言模型;海量文本→语言与世界知识 | 算力+数据双高门槛:百亿参数+万卡周级训练;数据清洗、去重、混合比例 |
② 有监督微调(SFT) | 用多任务“指令-回复”对,教模型听懂指令 | 指令覆盖面、质量控制、多轮对话格式 |
③ 人类反馈强化学习(RLHF) 或 DPO | 让回答符合人类偏好与价值:Reward Model + PPO(或DPO) | 标注成本高;需四模型并行或设计更轻量策略 |
第五章 动手搭建大模型
这章我之前提过,比较适合有卡有钱的玩家,因为我直接把这一章最后一部分内容给你拿出来。
你看作者在8张4090的前提下,还花了将近2天时间,后面的SFT阶段又得24天,你要有卡我不拦着,你要是租我不建议。
所以这一章内容写的非常详细,但是并不适合大多数人,看看即可,不用细追究。
第六章 大模型训练流程实践
反而我建议大多数同学可以试试第六章,因为它是主要讲“预训练”模型的,也就是在已有的模型基础上再训练。
它里面会讲到大模型时代非常重要的网站Huggingface以及它开发的一个库Transformers。你只要会用这个库,就可以基于全世界那些非常强的开源模型再创作,比如阿里的Qwen系列,甚至以后资源丰富了DeepSeek满血版也不是不能自己去微调。
Happy-LLM就是用的Qwen2.5的1.5B版本做的微调
很详细的教你怎么加载模型,查看模型结构等,都非常的实用。
接着还会讲的SFT,也是现在小成本创新的主要渠道。
最后一部分完美收尾,用高效微调的方法收尾。
这一章非常的干货,直接把微调的内容都放一起讲了。
第七章 大模型应用
这一章简要的讲了下大模型的测评和基于它的RAG和Agent应用。
测评部分就当课外知识了解下即可。
RAG和Agent部分也是看看就行,因为有很多可以实现这种效果的框架,要更简单,更好用。比如LangChain
再比如LazyLLM,有中文文档,支持几行代码就能构建一个常见的LLM应用。
实现这种效果的框架,要更简单,更好用。比如LangChain
[外链图片转存中…(img-H0Sbmg06-1752311606698)]
再比如LazyLLM,有中文文档,支持几行代码就能构建一个常见的LLM应用。
[外链图片转存中…(img-gHQo0YPt-1752311606698)]
最后总结,再重复下我的建议,要搞科研的,2,3,5必看,可以深入到算法层次;长见识的第四章看完足够了;有钱有卡的大佬,可以着重看第五章,从头训练一个大模型,看着进度条一点点走,Loss一点点降是非常有成就感的;没卡的也不用灰心,可以看看第六章,有很多的平台都是支持你薅羊毛的,比如colab,微调个1.5B模型还是不在话下的,一般的笔记本本身也能跑。
2024最新版优快云大礼包:《AGI大模型学习资源包》免费分享**
一、2025最新大模型学习路线
一个明确的学习路线可以帮助新人了解从哪里开始,按照什么顺序学习,以及需要掌握哪些知识点。大模型领域涉及的知识点非常广泛,没有明确的学习路线可能会导致新人感到迷茫,不知道应该专注于哪些内容。
我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。
L1级别:AI大模型时代的华丽登场
L1阶段:我们会去了解大模型的基础知识,以及大模型在各个行业的应用和分析;学习理解大模型的核心原理,关键技术,以及大模型应用场景;通过理论原理结合多个项目实战,从提示工程基础到提示工程进阶,掌握Prompt提示工程。
L2级别:AI大模型RAG应用开发工程
L2阶段是我们的AI大模型RAG应用开发工程,我们会去学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。
L3级别:大模型Agent应用架构进阶实践
L3阶段:大模型Agent应用架构进阶实现,我们会去学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造我们自己的Agent智能体;同时还可以学习到包括Coze、Dify在内的可视化工具的使用。
L4级别:大模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,我们会更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调;并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。
整个大模型学习路线L1主要是对大模型的理论基础、生态以及提示词他的一个学习掌握;而L3 L4更多的是通过项目实战来掌握大模型的应用开发,针对以上大模型的学习路线我们也整理了对应的学习视频教程,和配套的学习资料。
二、大模型经典PDF书籍
书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。(书籍含电子版PDF)
三、大模型视频教程
对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识。
四、大模型项目实战
学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。
五、大模型面试题
面试不仅是技术的较量,更需要充分的准备。
在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。
因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取