import torch
# 数据
x = torch.randn([1,3,4,4])
print(x.shape)
# nn.AdaptiveAvgPool2d结果
gap = nn.AdaptiveAvgPool2d(1)
print(gap(x))
# nn.AvgPool2d结果,参考resnest代码
gap2 = nn.AvgPool2d(kernel_size=(x.size(2),x.size(3)))
#ceil_mode=False)
print(gap2(x))
nn.AvgPool2d实现nn.AdaptiveAvgPool2d
最新推荐文章于 2025-10-29 16:43:12 发布
本文介绍了如何在PyTorch中使用AdaptiveAvgPool2d进行自适应平均池化,与传统的 AvgPool2d 操作进行对比,并通过实例展示了它们在处理图像尺寸变化时的效果。重点在于理解这两种池化层在卷积神经网络中的应用和差异。
部署运行你感兴趣的模型镜像
您可能感兴趣的与本文相关的镜像
PyTorch 2.5
PyTorch
Cuda
PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理
2253

被折叠的 条评论
为什么被折叠?



