- 博客(4)
- 收藏
- 关注
原创 李沐《动手学深度学习》学习笔记(四)
FCN网络(全卷积神经网络)中全是卷积层链接,与CNN网络的主要区别在于FCN将CNN中的全连接层换成了卷积操作。换成全卷积操作后,没有了全连接层的输入层神经元个数的限制,所以卷积层的输入可以是不同尺寸的图像,不用要求训练图像和测试图像size一致。FCN中第6、7、8层都是通过1 × 1卷积得到的,第6层的输出是4096 × 7 × 7, 第7层的输出是4096 × 7 × 7 ,第8层的输出是1000 × 7 × 7,即1000个大小是 7 × 7的特征图。其结构分为两个部分:全卷积部分和反卷积部分。
2023-04-07 20:53:58
247
1
原创 李沐《动手学深度学习》学习笔记(三)
包围框:我们有 𝑠 2个框,每个框的bb个数为𝐵,分类器可以识别出𝐶种不同的物体, 那么所有整个ground truth的长度为𝑆 × 𝑆 × (𝐵 × 5 + 𝐶)。卷积层主要有3×3的过滤器,并遵循两个简单的设计规则:①对输出特征图的尺寸相同的各层,都有相同数量的过滤器;5.MS COCO:提供的标注类别有80类,有超过33万张图片,其中20万张有标注,整个数据集中个体的数目超过150万个。其中前20个卷积层用来做预训练,后面4个是随机初始化的卷积层,和2个全连接层。最常用的是PASCAL 2012,
2023-04-03 17:05:06
231
1
原创 李沐《动手学深度学习》学习笔记(二)
也就是说,具有较大偏导的参数相应有一个较大的学习率,而具有小偏导的参数则对应一个较小的学习率。但本质上,优化和深度学习的⽬标是根本不同的。但有时候我们还会遇见一些不太常见的问题,例如:对于稀疏特征的模型训练时,鉴于学习率下降,我们可能最终会⾯临这样的情况:常⻅特征的参数相当迅速地收敛到最佳值,⽽对于不常⻅的特征,我们仍缺乏⾜够的观测以确定其最佳值。为了获得多个通道的输出,我 们可以为每个输出通道创建⼀个形状为ci × kh × kw的卷积核张量,这样卷积核的形状是co × ci × kh × kw。
2023-03-26 23:25:57
293
原创 李沐《动手学深度学习》学习笔记(一)
若是只单纯的添加隐藏层,新的模型似乎对我们没有任何好处,因为它不仅为我们带来了更多的参数,而且只需要合并隐藏层,他便可以等价于一个单层网络!线性回归的输出往往是预测一个连续值,而softmax回归虽然叫做回归,但其实是一个分类任务,其输出往往是预测一个离散的值。在现实生活中,我们往往还会面对这一类问题,对于给定的输入,例如不同的图像,我们只想知道图像属于哪一类,这便是softmax回归。线性回归最经典的例子便是预测房价了,根据样本的特征数量,分别给予不同的权重,再加上一个偏置项,来表达我们的预测模型。
2023-03-20 13:36:46
457
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人