大模型学习 (Datawhale_Happy-LLM)笔记
任务1: 内容介绍与前言
内容简介与前言
想要深入了解 LLM (Large Language Model) 大语言模型,还需要探究其背后的原理和训练过程。《Happy-LLM》教程除去内容简介和前言,共分为七章主要目标是带我们从NLP (Natural Language Processing) 的基本原理出发,探究 LLM 的架构和训练过程,并动手实践训练一个。我的学习计划是快速阅读理论部分,然后进入实践阶段,边实践边加深对理论部分的探究。
内容导航让我对本次学习有了一个全局概览。前四章包括:
理论部分 (前四章)
- NLP基础
- Transformer 架构 (LLM最重要的理论基础)
- 预训练语言模型 (Pretrain Language Model)
- 大语言模型
实践部分(后三章)
- 动手搭建大模型
- 大模型训练实践
- 大模型应用
简介与前言中提及的 LLM 相关词汇快速梳理
LLM (Large Language Model) - 大语言模型
一种基于深度学习的人工智能模型,通过在大规模文本数据上进行训练,能够理解和生成人类语言。
NLP (Natural Language Processing) - 自然语言处理
计算机科学、人工智能以及语言学领域的交叉学科,致力于让计算

最低0.47元/天 解锁文章
1052

被折叠的 条评论
为什么被折叠?



