19 卷积-22池化层 6章

本文详细探讨了卷积神经网络中卷积操作的计算过程,包括如何通过for循环实现点积求和,以及填充和步长对输出尺寸的影响。重点讲解了输入通道、输出通道、卷积核和填充策略的应用,涉及零填充梯度下降和torch.cat函数的使用。适合理解卷积层核心机制的开发者阅读。

 

 

 

 

 

 

 

 Y=...    输出的长=(X的长-卷积核的长+1, 宽。。)

for         遍历 i行往后看h行       列  与卷积核做点积   求和

 

 +1 -1  5:56秒

 

第一行    输入通道1 输出也是1 

X原来

Y卷积之后上面构造出来了 就是有0 和1

zero grad &back 梯度下降





 

 return 【2:】4维 拿掉前面两个通道 就是长宽

所有侧边都填充 那就是左右都填充一行 8+2-3+1=8 上面公式

上下填充2 左右填充1  8+4-5+1       8+2-3+1

 




 

 

zip 对最外面的一次次遍历https://www.youkuaiyun.com/tags/MtjaYg4sMzgzNDMtYmxvZwO0O0OO0O0O.htmlicon-default.png?t=M666https://www.youkuaiyun.com/tags/MtjaYg4sMzgzNDMtYmxvZwO0O0OO0O0O.html

 

 

 

ci是输入通道数 &h&w 是输入x的东西

co是输出通道K的第一个shape 就是卷积核几个通道   输出就几个

 reshape(m,n) 即: 将矩阵变成 m x n列矩阵

reshape(p,m,n)  p行 m*n矩阵

X 均值0 方差1       3*3*3

K   0,1,(输出2  输入3  1*1kernel)

《1e-6  就是基本一样        1*1相当于全连接层






 

 

 

(1,1)通道1 批量大小1     3 :24 

 

torch.cat 连接 函数将两个张量(tensor)按指定维度拼接在一起

 torch.cat — PyTorch 1.12 documentationicon-default.png?t=M666https://pytorch.org/docs/stable/generated/torch.cat.html?highlight=torch%20cat#torch.cat

 

 

 

 上面画错了  应该是234和678是第二框

填充 步长1

12不要    123不要看





评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值