1.概述
本文总结《从零构建LLM》的笔记,加深对GPT的理解,gpt架构的理解
作者写了做个文章在下面公众号(驾驭AI美未来、大模型生产力指南),目的是提升大模型、智能体的理解,提高大家生产力,欢迎关注、点赞。
录了个视频课程,欢迎学习。
【从零构建大模型】 视频课程讲解,一步步带你理解大模型底层原理
2.训练模型


2.1 gpt文本生成
原理:预测下一个token 
2.2 损失函数定义

2.3 计算cross_entropy 的方法

- perplexity 的介绍
A concept related to the cross-entropy loss is the perplexity of an LLM
The perplexity is simply the exponential of the cross-entropy loss
perplexity = torch.exp(loss)
print(perplexity)

被折叠的 条评论
为什么被折叠?



