PyTorch学习笔记(七)——最大池化层

文章介绍了MaxPool2d的最大池化操作,包括参数如kernel_size、stride和ceil_mode,并通过代码示例展示其应用。同时提到了池化层在减少数据量、提高计算效率以及特征提取中的作用。还展示了如何在CIFAR10数据集上使用最大池化。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  • MaxPool:最大池化(下采样)
  • MaxUnpool:上采样
  • AvgPool:平均池化
  • AdaptiveMaxPool2d:自适应最大池化

1 关于池化操作

 

2 MaxPool2d

  • kernel_size:池化核
  • stride:步进。卷积层中的stride默认为1,池化层中的stride默认为kernel_size的大小
  • padding
  • dilation:空洞卷积
  • return_indices
  • ceil_mode:值为True时使用ceil模式,否则为floor模式

 上图实现最大池化

import torch
from torch import nn
from torch.nn import MaxPool2d
 
input = torch.tensor([[1,2,0,3,1],
                      [0,1,2,3,1],
                      [1,2,1,0,0],
                      [5,2,3,1,1],
                      [2,1,0,1,1]],dtype=torch.float32)  #最大池化无法对long数据类型进行实现,将input变成浮点数的tensor数据类型
input = torch.reshape(input,(-1,1,5,5))  #-1表示torch计算batch_size
print(input.shape)
 
# 搭建神经网络
class myNN(nn.Module):
    def __init__(self):
        super(myNN, self).__init__()
        self.maxpool1 = MaxPool2d(kernel_size=3,ceil_mode=True)
    def forward(self,input):
        output = self.maxpool1(input)
        return output
 
# 创建神经网络
mynn = myNN()
output = mynn(input)
print(output)

 

 用数据集 CIFAR10 实现最大池化:

import torch
import torchvision
from torch import nn
from torch.nn import MaxPool2d
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter

dataset = torchvision.datasets.CIFAR10("./datasets",train=False,transform=torchvision.transforms.ToTensor(),download=True)
dataloader = DataLoader(dataset,batch_size=64)

class myNN(nn.Module):
    def __init__(self):
        super(myNN, self).__init__()
        self.maxpool1 = MaxPool2d(kernel_size=3,ceil_mode=True)

    def forward(self,input):
        output = self.maxpool1(input)
        return output

mynn = myNN()

writer = SummaryWriter("log4")
step = 0
for data in dataloader:
    imgs,targets = data
    writer.add_images("input",imgs,step)
    output = mynn(imgs) # output尺寸池化后不会有多个channel,原来是3维的图片,经过最大池化后还是3维的,不需要像卷积一样还要reshape操作(影响通道数的是卷积核个数)
    writer.add_images("output",output,step)
    step += 1
writer.close()

 3 池化层的作用

       最大池化的目的是保留输入的特征,同时把数据量减小(数据维度变小),对于整个网络来说,进行计算的参数变少,会训练地更快。如上面案例中输入是5x5的,但输出是3x3的,甚至可以是1x1的。类比1080p的视频为输入图像,经过池化可以得到720p,也能满足绝大多数需求,传达视频内容的同时,文件尺寸会大大缩小。

      池化一般跟在卷积后,卷积层是用来提取特征的,一般有相应特征的位置是比较大的数字,最大池化可以提取出这一部分有相应特征的信息。

      池化不影响通道数,池化后一般再进行非线性激活。

### 使用PINN(物理信息神经网络)解决偏微分方程的实例 #### 背景介绍 物理信息神经网络(Physics-Informed Neural Networks, PINNs)是一种结合深度学习与物理学知识的方法,能够高效求解复杂的偏微分方程(Partial Differential Equations, PDEs)。这种方法的核心在于将已知的物理规律作为约束条件嵌入到神经网络训练过程中,从而提高模型预测能力并减少对大量数据的需求。 以下是几个典型的PINN用于求解PDE的具体案例及其代码实现: --- #### 案例1:一维热传导方程 在一维空间中,热传导过程可以用如下形式表示: \[ u_t = \alpha u_{xx}, \quad x \in [a,b], t > 0, \] 其中 \(u(x,t)\) 表示温度分布,\(t\) 是时间变量,\(x\) 是位置坐标,而 \(\alpha\) 则代表材料的导热系数。边界条件可以设定为固定端点处的温度值或者绝热状态下的梯度零假设。 ##### 实现步骤 下面展示了一段基于PyTorch框架的一维热传导方程解决方案[^2]: ```python import torch import numpy as np # 定义神经网络结构 class Net(torch.nn.Module): def __init__(self, layers): super(Net, self).__init__() self.linears = torch.nn.ModuleList([torch.nn.Linear(layers[i], layers[i+1]) for i in range(len(layers)-1)]) def forward(self, x): a = x for i, l in enumerate(self.linears[:-1]): a = torch.tanh(l(a)) a = self.linears[-1](a) return a # 初始化参数 layers = [2, 20, 20, 1] # 输入维度 (x,t),隐藏层节点数,输出维度(u) model = Net(layers) def compute_loss(model, x_data, t_data, alpha=0.1): """定义损失函数""" xt = torch.cat((x_data.unsqueeze(-1), t_data.unsqueeze(-1)), dim=-1).requires_grad_(True) u_pred = model(xt) grad_u = torch.autograd.grad( outputs=u_pred.sum(), inputs=xt, create_graph=True)[0] u_x = grad_u[:, 0].view(-1, 1) u_t = grad_u[:, 1].view(-1, 1) hessian_xx = torch.autograd.grad(outputs=u_x, inputs=xt, retain_graph=True, create_graph=True)[0][:, 0].view(-1, 1) pde_residual = u_t - alpha * hessian_xx mse_pde = torch.mean(pde_residual ** 2) return mse_pde # 训练循环省略... ``` 上述代码片段展示了如何构建一个简单的全连接前馈神经网络,并通过自动微分技术计算目标函数相对于输入的空间二阶导数以及时间一阶导数,进而形成残差项以优化整个系统性能。 --- #### 案例2:Burgers' 方程 另一个经典例子是非线性的 Burgers’ 方程,在流体力学领域具有重要意义: \[ u_t + uu_x = \nu u_{xx}, \] 这里引入了粘滞效应因子 \(\nu>0\) 来描述扩散现象的影响程度。该类问题同样可以通过调整相应超参设置来适配不同场景需求[^1]。 --- #### 已验证的有效性分析 研究表明,相比于传统数值方法如有限元法或谱方法等,采用PINN不仅可以获得更高的精度而且还能显著降低运算成本特别是当面对高维情形时优势更加明显。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值