
深度学习
文章平均质量分 92
君亦君兮
这个作者很懒,什么都没留下…
展开
-
ResNet学习笔记
Batch Normalization是指批标准化处理,将一批数据的feature map满足均值为0,方差为1的分布规律。简而言之,就是计算一个Batch数据的feature map然后再进行标准化(batch越大越接近整个数据集的分布,效果越好),计算公式如下:根据上图的公式可以知道代表着我们计算的feature map每个维度(channel)的均值,原创 2023-09-13 11:01:59 · 151 阅读 · 0 评论 -
AlexNet学习笔记
但是,若使用的是same convolution时就不一样了,假定步长为1,当在一个宽。如果k为奇数的话,补的这k-1个0可以在两侧对称分布,如果是偶数则不然。② Sigmoid的导数只有在0附近的时候有比较好的激活性,在正负饱和区的梯度都接近。注:全连接层的参数量占了总参数量的90%以上,对全连接层进行改进将有效减少参数量。于0,所以这会造成梯度弥散,而ReLU函数在大于0的部分。:(论文中写的输入为224×224,但实际为227×227),即在输入是负值的情况下,它会输出0,那么神经元就不会被。原创 2023-09-09 16:38:44 · 111 阅读 · 0 评论 -
卷积ReLU池化上下采样全连接
对于一幅图像I尺寸为M*N,对其进行s倍下采样,即得到(M/s)*(N/s)尺寸的得分辨率图像,当然s应该是M和N的公约数才行,如果考虑的是矩阵形式的图像,就是把原始图像s*s窗口内的图像变成一个像素,这个像素点的值就是窗口内所有像素的均值。全连接层的每个神经元都与前一层的所有神经元相连,因此得名全连接。总之,全连接层是神经网络中非常重要的一种层,它负责将前一层的特征提取结果映射到最终的输出或预测结果。全连接层的输出可以是一个向量,表示类别的概率分布,也可以是一个实数值,表示回归问题中的预测结果。原创 2023-09-07 14:03:56 · 315 阅读 · 0 评论