Transformer——Q121 推导交叉熵损失与极大似然估计的等价性证明

该问题归类到Transformer架构问题集——训练与优化——损失函数。请参考LLM数学推导——Transformer架构问题集

1. 问题背景

在大语言模型(LLM)的训练与优化过程中,我们常常需要借助一些关键的概念和方法来衡量模型预测结果的好坏以及估计模型的参数。交叉熵损失(Cross - Entropy Loss)和极大似然估计(Maximum Likelihood Estimation, MLE)就是其中极为重要的两个工具。交叉熵损失主要用于量化模型预测分布与真实分布之间的差异程度,而极大似然估计则是一种从给定数据中估计模型参数的有效方法。理解它们之间的等价性,不仅有助于我们更深入地理解模型训练的目标和机制,还能为模型的优化和改进提供理论支持。在实际的 LLM 应用场景中,如文本生成、情感分析、问答系统等,准确地运用交叉熵损失和极大似然估计可以显著提升模型的性能和表现。

2. 技术原理
  • 交叉熵(Cross - Entropy)
    • 从信息论的角度来看,交叉熵是用来衡量两个概率分布之间的差异的一种度量。对于离散随机变量 X,其取值范围为 \{x_1, x_2, \cdots, x_n\},假设有两个概率分布 p(x) 和 q(x),其中 p(x) 通常表示真实的概率分布,而 q(x) 则是模型预测的概率分布。交叉熵的定义为 H(p,q)=-\sum_{i = 1}^{n}p(x_i)\log q(x_i)
    • 为什么要这样定义呢?我们知道,信息论中,一个事件 x 的自信息(Self - Information)定义为 I(x)=-\log p(x),它反映了事件 x 发生时所包含的信息量。当 p(x) 越接近 0 时,I(x) 越大,说明该事件发生时带来的信息量越大;反之,当 p(x) 接近 1 时,I(x) 越小。而交叉熵 
Transformer发轫于NLP(自然语言处理),并跨界应用到CV(计算机视觉)领域。目前已成为深度学习的新范式,影响力应用前景巨大。 本课程对Transformer的原理TensorFlow 2代码进行精讲,来帮助大家掌握其详细原理具体实现。 原理精讲部分包括:注意力机制自注意力机制、Transformer的架构概述、Encoder的多头注意力(Multi-Head Attention)、Encoder的位置编码(Positional Encoding)、残差链接(Residual Connection)、层规范化(Layer Normalization)、FFN(Feed Forward Network)、Transformer训练及性能、Transformer的机器翻译工作流程。  代码精讲部分使用Jupyter Notebook对Transformer的TensorFlow 2实现代码进行逐行解读,包括:安装TensorFlow、Transformer的数据集加载预处理代码解读、Transformer的位置编码多头注意力代码解读、TransformerTransformer类代码解读、Transformer优化损失函数代码解读、Transformer训练代码解读、Transformer的推理权重保存代码解读。相关课程: 《Transformer原理代码精讲(PyTorch)》https://edu.youkuaiyun.com/course/detail/36697《Transformer原理代码精讲(TensorFlow)》https://edu.youkuaiyun.com/course/detail/36699《ViT(Vision Transformer)原理代码精讲》https://edu.youkuaiyun.com/course/detail/36719《DETR原理代码精讲》https://edu.youkuaiyun.com/course/detail/36768《Swin Transformer实战目标检测:训练自己的数据集》https://edu.youkuaiyun.com/course/detail/36585《Swin Transformer实战实例分割:训练自己的数据集》https://edu.youkuaiyun.com/course/detail/36586《Swin Transformer原理代码精讲》 https://download.youkuaiyun.com/course/detail/37045
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

墨顿

唵嘛呢叭咪吽

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值