简述
按个人偏好和目标总结了学习目标和路径(可按需学习),后续将陆续整理出相应学习资料和资源。
🎯学习目标
- 熟悉主流LLM(Llama, ChatGLM, Qwen)的技术架构和技术细节;有实际应用RAG、PEFT和SFT的项目经验
- 较强的NLP基础,熟悉BERT、T5、Transformer和GPT的实现和差异,能快速掌握业界进展,有对话系统相关研发经验
- 掌握TensorRT-LLM、vLLM等主流推理加速框架,熟悉模型量化、FlashAttention等推理加速技术方案,对分布式训练DeepSpeed框架有实战经验
- 熟悉Pytorch,具备扎实的深度学习和机器学习基础,对C/C++、Cuda、计算机系统有一定了解
🚤参考项目
📕参考书籍
- 大规模语言模型:从理论到实践 – 张奇、桂韬、郑锐、黄萱菁 https://intro-llm.github.io/intro-llm
![
- ChatGPT原理与实战 https://github.com/liucongg/ChatGPTBook
📰参考课程
-
面向开发者的LLM入门课程(吴恩达课程-中文版)
https://github.com/datawhalechina/prompt-engineering-for-developers/blob/main/README.md -
普林斯顿-COS 597G (Fall 2022): Understanding Large Language Models
https://www.cs.princeton.edu/courses/archive/fall22/cos597G/ -
斯坦福-CS324 - Large Language Models
https://stanford-cs324.github.io/winter2022/
🗒 教程
- Huggingface Transformers官方课程 https://huggingface.co/learn/nlp-course/
- Transformers快速入门(快速调包BERT系列)
https://transformers.run/
💥学习方式
- 力求快速应用 (先调包,再深入学习)
- 在实践中动手学习,力求搞懂每个关键点
- 【原理学习】+【代码实践】 + 【输出总结】
🔤基础知识
-
视频课程:
-
书籍
- 深度学习入门:基于Python的理论与实践:numpy实现MLP、卷积的训练
-《深度学习进阶:自然语言处理》:numpy实现Transformers、word2vec、RNN的训练 - Dive In Deep Learning(动手学深度学习) https://d2l.ai/
- 《神经网络与深度学习》https://nndl.github.io/
- 《机器学习方法》:李航老师的机器学习 + 深度学习
- 深度学习入门:基于Python的理论与实践:numpy实现MLP、卷积的训练
-
强化学习
- 强化学习教程-蘑菇书EasyRL(李宏毅强化学习+强化学习纲要)https://datawhalechina.github.io/easy-rl/
- 动手学强化学习 https://github.com/boyu-ai/Hands-on-RL/blob/main/README.md
🚩后续路径
应用:
Zero Shot / Few Shot 快速开箱即用
-
Prompt调优:
- 上下文学习In-Context Learning, ICL
- 思维链 Chain of Thought, COT
-
RAG (Retrive Augment Generate)
- 基于文档分块、向量索引和LLM生成,如Langchain文档问答
领域数据-指令微调LLM
-
PEFT (Parameter Efficient Fintuning):
- LORA (Low-Rank Adaption of LLMs)
- QLORA
- SLORA
- P-Tuning v2
参数高效的微调,适合用于纠正模型输出格式(PEFT上限不高,并向LLM输入的知识有限)
-
SFT (Supervised Fintuning):
- 全参数监督微调,使用prompt指令样本全量微调LLM(可以注入新的领域知识)
- 需要控制样本配比(领域数据 + 通用数据)
对齐
-
对齐人类偏好 (RLHF):
- RewardModel 奖励模型 (排序标注,判断答案价值)
- RL (PPO, 更新SFT模型)
专注基于强化学习的大语言模型对齐,有前景的方向是SuperhumanAI AutoALign
预训练</