
深度学习基础
文章平均质量分 58
靠才华吃土
这个作者很懒,什么都没留下…
展开
-
【深度学习基础】全局平均池化与全连接层
假设前一层的输出为W*H*C:C个W*H那么全连接的任务就是:通过设置卷积核的参数,给这C个W*H分配,使得最后能得到一组长为L的特征向量,这个特征向量最终被用于分类或数值预测。全连接可以被视为是一种极端情况的卷积层,为了使每个W*H最后的输出是1*1,这个每个卷积核的尺寸也要是输入矩阵尺寸(W*H)。对每个通道都要设置不同的参数,且输出通道数为多少就要设置多少组大小为W*H*C的卷积核。由此可以看出,假设输出通道数为L,则全连接的参数量为L*C*W*H。参数量大,且容易导致过拟合。原创 2024-03-01 09:26:27 · 1013 阅读 · 0 评论 -
【深度学习基础】CNN中卷积层的计算细节
x 1 卷积没有什么神秘的,其作用就是将输入矩阵的通道数量缩减后输出(512 降为 32),并保持它在宽度和高度维度上的尺寸(227 x。权重矩阵(卷积核)格式:同样是四个维度,但维度的含义与上面两者都不同,为:卷积核高度、卷积核宽度、输入通道数、输出通道数(卷积核个数)实际上,全连接层也可以被视为是一种极端情况的卷积层,其卷积核尺寸就是输入矩阵尺寸,因此输出矩阵的高度和宽度尺寸都是1。输出矩阵格式:与输出矩阵的维度顺序和含义相同,但是后三个维度(图像高度、图像宽度、图像通道数)的尺寸发生变化。原创 2024-02-29 10:40:27 · 561 阅读 · 0 评论