- 博客(6)
- 收藏
- 关注
转载 动手学深度学习v2-李沐 softmax实现
数据传递到模型之前,我们使用reshape函数将每张原始图像展平为向量。我们创建一个数据样本y_hat,其中包含2个样本在3个类别的预测概率, 以及它们对应的标签y。有了y,我们知道在第一个样本中,第一类是正确的预测;而在第二个样本中,第三类是正确的预测。然后使用y作为y_hat中概率的索引, 我们选择第一个样本中第一个类的概率和第二个样本中第三个类的概率。现在我们只需一行代码就可以实现交叉熵损失函数。
2023-11-05 12:30:11
75
转载 动手学深度学习v2-李沐 softmax回归
我们有4个特征和3个可能的输出类别, 我们将需要12个标量来表示权重(带下标的w), 3个标量来表示偏置(带下标的b)。下面我们为每个输入计算三个。一方面,我们没有限制这些输出数字的总和为1。另一方面,根据输入的不同,它们可以为负值。要将输出视为概率,我们必须保证在任何数据上的输出都是非负的且总和为1。此外,我们需要一个训练的目标函数,来激励模型精准地估计概率。softmax函数能够将未规范化的预测变换为非负数并且总和为1,同时让模型保持 可导的性质。我们将使用最大似然估计,这与在线性回归中的方法相同。
2023-11-03 21:25:13
93
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人