
动手学深度学习
文章平均质量分 92
深度学习自留地,记录一些笔记
向阳而生°
这个作者很懒,什么都没留下…
展开
-
【深度学习】权重衰减、丢弃法、反向传播
过拟合现象:模型的训练误差远小于它在测试集上的误差。虽然增大训练数据集可能会减轻过拟合,但是获取额外的训练数据往往代价高昂。本节介绍应对过拟合问题的常用方法:权重衰减(weight decay)。原创 2023-05-25 11:03:35 · 246 阅读 · 1 评论 -
【深度学习】多层感知机、模型选择
多层感知机就是含有至少一个隐藏层的由全连接层组成的神经网络,且每个隐藏层的输出通过激活函数进行变换。多层感知机的层数和各隐藏层中隐藏单元个数都是超参数。HOϕXWhbhHWobo其中ϕ表示激活函数。在分类问题中,我们可以对输出O做softmax运算,并使用softmax回归中的交叉熵损失函数。在回归问题中,我们将输出层的输出个数设为1,并将输出O直接提供给线性回归中使用的平方损失函数。原创 2023-05-25 11:01:28 · 172 阅读 · 0 评论 -
【深度学习】线性回归和softmax回归
线性回归输出是一个连续值,因此适用于回归问题。回归问题在实际中很常见,如预测房屋价格、气温、销售额等连续值的问题。与回归问题不同,分类问题中模型的最终输出是一个离散值。我们所说的图像分类、垃圾邮件识别、疾病检测等输出为离散值的问题都属于分类问题的范畴。softmax回归则适用于分类问题。由于线性回归和softmax回归都是单层神经网络,它们涉及的概念和技术同样适用于大多数的深度学习模型。我们首先以线性回归为例,介绍大多数深度学习模型的基本要素和表示方法。原创 2023-05-25 11:00:50 · 584 阅读 · 0 评论 -
在MINIST数据集上运行GAN、Conditional GAN
GAN中的Generator是一种神经网络,给定一组随机的值Z(服从多元高斯分布采样),通过一系列非线性计算产生真实的图像。Conditional GAN最主要的不同就是在生成器和判别器的输入会加上样本的标签(或其它)信息。此外,判别器对观察结果的分类能力不仅限于图像,还包括视频、文本和许多其他领域(多模态)。D(G(z)):生成的fake样本Gz被预测为真的概率,(我们希望越大越好)判别器基于判别建模的概念,它试图用特定的标签对数据集中的不同类进行分类。:将判别器返回的对虚假样本的判别结果与1比较。原创 2023-05-25 10:55:50 · 501 阅读 · 0 评论