池化的名字由何而来?

马克-to-win @ 马克java社区:防盗版实名手机尾号:73203。根据前面的卷积过程,我们可以达到特征提取的作用。基本上已经判断出谁是C谁是D。底下可以再进一步做一次池化。数据库连接池记得吧?马克-to-win @ 马克java社区:把很多数据库连接放在一个池子里,想用时挑一个来用。这里做完卷积得到这么多数据,就像池子一样,对于这池子里的数据,我们可以继续做各种各样的操作,比如最大池化或平均池化。最大池化顾名思义就是从池子中取出最大值。注意取最大值,不是整体取最大值,而是邻域取最大值。结果就如下图,第一个区域(只有四个数)的最大值是5,第二个区域的最大值是1。以此类推。

经历了以上两步卷积和池化以后,我们得到的结果,真是太好不过了。首先,经过卷积,也就是特征提取,我们成功的得到了结果5。这个值越大,就说明特征越突出,越能增加最后判断结果的正确性。第二步池化,还能把不是特征的部分丢弃,起到去燥的效果,还为我们将来。。。。。。。。。。。。。。。。。。

更多可见:https://blog.youkuaiyun.com/qq_44596980/article/details/100620372

 

### 平均池化与最大池化在深度学习网络框架图中的表示 在深度学习的网络结构图中,平均池化(Average Pooling)和最大池化(Max Pooling)通常通过矩形框或特定的图标来表示。这些操作用于减少特征图的空间维度,从而降低计算复杂度并增强模型的泛化能力。 #### 平均池化(Average Pooling) 平均池化操作通过计算每个局部区域的平均值来生成输出特征图。在网络框架图中,该操作通常用矩形框表示,并在框内标注“Average Pooling”或简写为“AvgPool”。输入特征图通常以三维立方体的形式展示,其中两个维度表示空间尺寸(高度和宽度),第三个维度表示通道数。输出特征图则以较小的立方体或二维矩形表示,表示空间维度已被压缩。 #### 最大池化(Max Pooling) 最大池化操作通过选取每个局部区域的最大值来生成输出特征图。在网络框架图中,该操作通常用矩形框表示,并在框内标注“Max Pooling”或简写为“MaxPool”。与平均池化类似,输入和输出特征图的表示方式一致,但操作框内的标注不同,以区分两种池化方式。 #### 示例图示 虽然无法直接展示图像,但以下文描述可以指导如绘制或识别这些操作的图示: - **输入特征图**:通常用三维立方体表示,其中两个维度为高度和宽度,第三个维度为通道数。 - **输出特征图**:用较小的立方体或二维矩形表示,表示空间维度已被压缩。 - **操作标注**:在操作框旁边标注“Average Pooling”或“Max Pooling”以明确功能。 #### 代码示例(PyTorch) 以下代码演示如在PyTorch中实现平均池化和最大池化操作: ```python import torch import torch.nn as nn # 假设输入特征图的形状为 [batch_size, channels, height, width] input_tensor = torch.randn(1, 3, 32, 32) # 平均池化 avg_pool = nn.AvgPool2d(kernel_size=2, stride=2) output_avg = avg_pool(input_tensor) print("Average Pooling Output:", output_avg.shape) # 最大池化 max_pool = nn.MaxPool2d(kernel_size=2, stride=2) output_max = max_pool(input_tensor) print("Max Pooling Output:", output_max.shape) ``` 上述代码展示了如使用PyTorch中的`AvgPool2d`和`MaxPool2d`来实现平均池化和最大池化操作。 ### 全局平均池化与全局最大池化 全局平均池化(Global Average Pooling, GAP)和全局最大池化(Global Max Pooling, GMP)是池化操作的扩展形式,用于将特征图的空间维度压缩至1x1。在网络框架图中,这些操作通常以矩形框表示,并标注为“Global Average Pooling”或“Global Max Pooling”。 - **全局平均池化**:将每个特征图的空间维度压缩为1x1,输出一个与通道数相等的向量。 - **全局最大池化**:同样将每个特征图的空间维度压缩为1x1,但输出每个特征图中的最大值。 #### 代码示例(PyTorch) 以下代码演示如在PyTorch中实现全局平均池化和全局最大池化操作: ```python import torch import torch.nn as nn # 假设输入特征图的形状为 [batch_size, channels, height, width] input_tensor = torch.randn(1, 3, 32, 32) # 全局平均池化 gap = nn.AdaptiveAvgPool2d((1, 1)) output_gap = gap(input_tensor).squeeze() print("Global Average Pooling Output:", output_gap.shape) # 全局最大池化 gmp = nn.AdaptiveMaxPool2d((1, 1)) output_gmp = gmp(input_tensor).squeeze() print("Global Max Pooling Output:", output_gmp.shape) ``` 上述代码展示了如使用PyTorch中的`AdaptiveAvgPool2d`和`AdaptiveMaxPool2d`来实现全局平均池化和全局最大池化操作。 ### 总结 在深度学习网络框架图中,平均池化和最大池化操作通常通过矩形框表示,并在框内标注相应的操作名称。这些操作用于减少特征图的空间维度,从而降低计算复杂度并增强模型的泛化能力。全局平均池化和全局最大池化则进一步将特征图的空间维度压缩至1x1,常用于网络的末端以提取全局特征信息。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

mark_to_win

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值