


![]()






Y=... 输出的长=(X的长-卷积核的长+1, 宽。。)
for 遍历 i行往后看h行 列 与卷积核做点积 求和


+1 -1 5:56秒

第一行 输入通道1 输出也是1
X原来
Y卷积之后上面构造出来了 就是有0 和1
zero grad &back 梯度下降


return 【2:】4维 拿掉前面两个通道 就是长宽
所有侧边都填充 那就是左右都填充一行 8+2-3+1=8 上面公式
上下填充2 左右填充1 8+4-5+1 8+2-3+1







![]()



ci是输入通道数 &h&w 是输入x的东西
co是输出通道K的第一个shape 就是卷积核几个通道 输出就几个
reshape(m,n) 即: 将矩阵变成 m x n列矩阵
reshape(p,m,n) p行 m*n矩阵
X 均值0 方差1 3*3*3
K 0,1,(输出2 输入3 1*1kernel)
《1e-6 就是基本一样 1*1相当于全连接层

(1,1)通道1 批量大小1 3 :24


torch.cat 连接 函数将两个张量(tensor)按指定维度拼接在一起





上面画错了 应该是234和678是第二框
填充 步长1

12不要 123不要看
本文详细探讨了卷积神经网络中卷积操作的计算过程,包括如何通过for循环实现点积求和,以及填充和步长对输出尺寸的影响。重点讲解了输入通道、输出通道、卷积核和填充策略的应用,涉及零填充梯度下降和torch.cat函数的使用。适合理解卷积层核心机制的开发者阅读。
zip 对最外面的一次次遍历
https://www.youkuaiyun.com/tags/MtjaYg4sMzgzNDMtYmxvZwO0O0OO0O0O.html
4865

被折叠的 条评论
为什么被折叠?



