VGG11使用卷积层代替全连接层进行测试

一、使用全连接层训练好的VGG11模型改为全卷积层进行测试,在加载训练模型报错问题

size mismatch报错

RuntimeError: Error(s) in loading state_dict for VGG:
size mismatch for classifier.0.weight: copying a param with shape torch.Size([4096, 25088]) from checkpoint, the shape in current model is torch.Size([4096, 512, 7, 7]).
size mismatch for classifier.3.weight: copying a param with shape torch.Size([4096, 4096]) from checkpoint, the shape in current model is torch.Size([4096, 4096, 1, 1]).
size mismatch for classifier.6.weight: copying a param with shape torch.Size([5, 4096]) from checkpoint, the shape in current model is torch.Size([5, 4096, 1, 1]).

报错代码

weights_path = r"vgg11Net.pth"
state_dict = torch.load(weights_path)
model.load_state_dict(state_dict)

问题分析:

model.load_state_dict(state_dict)加载模型时,全连接层训练的模型权重torch.size和卷积层的torch.size维度是不同的。

二、解决方法

我们要将训练好的模型的权重进行升维的操作,才能与卷积层的torch.size匹配起来。

全连接层改为卷积层代码

self.classifier = nn.Sequential(
            # nn.Linear(512*7*7, 4096),   #  classifier.0
            # nn.ReLU(True),
            # nn.Dropout(p=0.5),
            # nn.Linear(4096, 4096),   #  classifier.3
            # nn.ReLU(True),
            # nn.Dropout(p=0.5),
            # nn.Linear(4096, num_classes)   #  classifier.6
            # 全连接层与卷积层要对应起来,可不使用dropout,可以使用池化层将两者对应起来
            nn.Conv2d(in_channels=512, out_channels=4096, kernel_size=7, stride=1),  #  classifier.0
            nn.ReLU(True),
            nn.Dropout(p=0.5),
            nn.Conv2d(in_channels=4096, out_channels=4096, kernel_size=1, stride=1),  #  classifier.3
            nn.ReLU(True),
            nn.Dropout(p=0.5),
            nn.Conv2d(in_channels=4096, out_channels=num_classes, kernel_size=1, stride=1),  #  classifier.6
        )

增加的代码

在加载模型state_dict = torch.load(weights_path)后面添加以下代码,使用reshape()来改变加载训练模型权重的维度,与卷积层所需要的维度一样。

    state_dict = torch.load(weights_path)
    for k, v in state_dict.items():
        if "classifier.0.weight" == k:
            state_dict[k] = v.reshape(4096, 512, 7, 7)
        if "classifier.3.weight" == k:
            state_dict[k] = v.reshape(4096, 4096, 1, 1)
        if "classifier.6.weight" == k:
            state_dict[k] = v.reshape(num_classes, 4096, 1, 1)
    model.load_state_dict(state_dict)

修改之后,就可以用全卷积进行测试了。

三、为什么测试要使用卷积层代替全连接层及注意事项

1. VGG使用全连接层训练时图片为224*224,所以使用全连接层模型进行测试也要缩放图片大小224*224。
2. 使用全卷积层则不需要对测试的图片进行缩放,可以直接使用原图,但是输入的图片的最短边不能小于224(如果图片最短边小于224,可以在替换的第一层卷积加上一个padding,保证图片有足够的尺寸大小来被7*7的卷积核进行卷积操作)。
3. 使用全卷积最后经过softmax得到的输出权重不一定是一维的向量(也可以是二维和三维的)。

例如:输入图片大小为256*256,最后输出的为2*2*num_classes大小的输出(num_classes为测试分类数量),全卷积测试时图片大小变化及最后输出权重的形状如下。
全卷积测试图片时的大小变换

实现代码
with torch.no_grad():
    output = torch.squeeze(model(img.to(device))).cpu()
    predict = torch.softmax(output, dim=0)
    '''判断输出的权重为几维的 '''
    if len(predict.shape) == 3:
        three_dim = np.array(predict)  # 将tensor数据转换为三维的numpy数组
        two_dim = np.sum(three_dim, -1)  # 按每个feature map进行行求和,降为二维的numpy数组
        one_dim = two_dim.sum(axis=1)  # axis=0 按列求和, axis=1 按行求和
        predict = torch.tensor(one_dim)  # 将numpy数组转换为tensor
    if len(predict.shape) == 2:
        two_dim = np.array(predict)
        one_dim = two_dim.sum(axis=1)
        predict = torch.tensor(one_dim)
    '''以上为需要添加的代码'''
    predict_cla = torch.argmax(predict).numpy()  # 获取最大权重分类的下标
最后总结,使用全卷积层可以测试任意大小的图片,在一定程度上可以提高测试的准确度(我自己进行图片测试时,使用全卷积比使用全连接层精确度要好)

分析原因:这也是我自己的理解,使用全连接层对图片进行了Resize()缩放,把原有的图片压扁了。而使用全卷积图片没有进行缩放,可能提取的特征更加明显,而且全卷积得到的权重向量为多维的,获取得到的权重参数更多,从而使测试时精确度更高。

<think>好的,我现在需要给用户介绍一下全连接层。首先,我得回忆一下全连接层的基本概念,确保自己理解正确。全连接层,英文是Fully Connected Layer,有时候也叫做密集层(Dense Layer)。它在神经网络中很常见,特别是在传统的多层感知机(MLP)里。 接下来,我需要确定全连接层的主要结构和作用。每个神经元都和前一层所有神经元相连,所以参数数量会很多。比如,如果前一层的输出是n个神经元,当前层有m个神经元,那么权重矩阵就是n×m,加上偏置的话,总共有n×m + m个参数。这可能带来计算量大的问题,尤其是在深层网络中。 然后,全连接层的作用是什么?主要是将前面层的特征进行组合,通过线性变换和非线性激活函数,学习复杂的模式。比如,在卷积神经网络后面接全连接层,可以把卷积层提取的局部特征整合起来,用于分类或者回归任务。 不过,全连接层也有缺点。参数太多容易导致过拟合,特别是在数据量不足的情况下。可能需要使用Dropout、正则化等技术来缓解。另外,全连接层会丢失空间信息,所以在处理图像等具有空间结构的数据时,通常会先用卷积层提取特征,后面再用全连接层。 需要举例说明吗?比如在图像分类中,卷积层后面接全连接层,最后用softmax输出分类结果。或者,在自然语言处理中,全连接层用于词嵌入之后的分类任务。 还要注意,现在有些网络架构开始减少全连接层使用,比如用全局平均池化代替全连接层,以减少参数数量,防止过拟合。比如GoogLeNet和ResNet就采用了这样的结构。 用户可能想知道全连接层的数学表达式。假设输入是向量x,权重矩阵W,偏置b,激活函数是σ,那么输出就是σ(Wx + b)。这部分需要用LaTeX表示,按照用户的要求,数学公式用$...$或者$$...$$格式。比如,输入x的维度是n,全连接层有m个神经元,那么W的形状就是n×m,输出是m维向量。 用户可能还想了解全连接层在反向传播中的作用,如何计算梯度。这部分可能需要详细一点的解释,但用户的问题主要是介绍,所以可能不需要太深入。不过可以提到梯度下降优化时,全连接层的参数更新依赖于链式法则。 总结一下,全连接层的介绍需要包括结构、作用、优缺点、应用场景和数学表达。结构部分要强调每个神经元连接前一层的所有神经元;作用要说明特征组合和学习复杂模式;优缺点要提到参数多、过拟合风险,以及空间信息丢失;应用场景举几个例子,比如分类任务;数学表达式用LaTeX正确书写。 需要检查是否有错误的地方,比如参数计算是否正确。假设输入是n维,输出m维,权重矩阵确实是n×m,加上m个偏置,总参数是n*m + m。没错。激活函数部分,常用的有ReLU、sigmoid、tanh等,可以提到。 另外,全连接层在不同框架中的实现可能名称不同,比如在TensorFlow中是Dense层,PyTorch中是Linear层,但作用是一样的。这点可能对用户有帮助,特别是如果他们使用这些框架的话。 最后,确保回答符合用户的要求:结构清晰,分步骤解释,使用中文,数学公式正确。避免使用Markdown格式,用自然的中文段落,适当分段,使内容易于理解。</think>全连接层(Fully Connected Layer)是神经网络中的基础组件,主要用于学习输入特征之间的复杂关系。以下是分步说明: --- ### **1. 基本结构** - **全连接特性**:每个神经元与前一层的**所有神经元**相连(如图像展开为一维向量后连接)。 - **参数计算**:若输入为$n$维向量,输出为$m$维,则权重矩阵为$W \in \mathbb{R}^{n \times m}$,偏置为$b \in \mathbb{R}^m$,总参数量为$n \times m + m$。 - **数学表达**: 输出为$y = \sigma(Wx + b)$,其中$\sigma$为激活函数(如ReLU、Sigmoid)。 --- ### **2. 核心作用** - **特征组合**:通过线性变换($Wx + b$)和非线性激活函数,将输入特征映射到新空间。 - **分类/回归**:常用于网络末端,将学习到的特征转化为类别概率(如Softmax)或回归值。 --- ### **3. 典型应用场景** - **图像分类**:卷积层提取局部特征后,用全连接层整合全局信息(如VGG、AlexNet)。 - **自然语言处理**:词嵌入(Word Embedding)后接全连接层进行情感分类。 - **简单示例**: 输入手写数字图像(展平为784维向量),全连接层输出10维概率(对应0-9分类)。 --- ### **4. 优缺点分析** - **优点**: - 强大的特征拟合能力,适合学习全局模式。 - 实现简单,易于与其他层(如卷积层)结合。 - **缺点**: - 参数量大,易导致**过拟合**(需配合Dropout、正则化)。 - 丢失空间信息(如将图像展平为向量)。 --- ### **5. 替代方案** 现代网络常通过以下方式减少全连接层依赖: - **全局平均池化**(Global Average Pooling):直接对特征图取均值,替代全连接层(如ResNet)。 - **1x1卷积**:在保留空间信息的同时降维(如GoogLeNet)。 --- ### **代码示例(PyTorch)** ```python import torch.nn as nn # 定义全连接层:输入维度784,输出维度10 fc_layer = nn.Linear(784, 10) # 前向传播 input = torch.randn(32, 784) # 批大小32 output = fc_layer(input) # 输出形状(32, 10) ``` 全连接层是理解深度学习的基石,但在实际应用中需权衡其计算成本与模型效果。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值