CNN需要训练的参数个数(Param #)计算

本文详细解析了CNN模型中参数数量的计算方法,包括Dense层、池化层和卷积层。举例说明了各层参数的计算过程,如Dense层的参数总数为输入特征数乘以神经元数,而卷积层参数数为卷积核大小乘以前一层输出通道数再乘以当前层通道数。总结了模型总参数量,并强调池化层不涉及训练参数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

设计好CNN模型后,常见的模型摘要如下图所示,大家有没有想过,里面的参数个数(Param #)是如何计算出来的呢?
在这里插入图片描述
最简单的是Dense层,即全连接层(FC),输入参数就是前一层的输出,例如上图中,Dense层,输入参数个数就是78400,即每个神经元都有78400个输入,根据神经元计算公式 Y = W*X + b,对应的w有78400个,外加偏置b,每个神经元共计(78400+1)个参数需要训练。

    dense层共有512个神经元,所以需要训练的参数共计 (78400+1)× 512 = 40141312;

    dense_1层:(512+1)×1=513

    池化层(Pooling)没有需要训练的参数。

    卷积层(Conv2D)本质是在训练卷积核(Kernel),假设输入为i,本层的卷积核个数为j,卷积核为n*m,则需要训练的参数个数为:N = (n*m*i+1)*j

    Conv2d 层中,i=1,j=16,n=m=3,所以N=(3*3*1+1)*16=448;

    Conv2d_1 层中,i=16,j=32,n=m=3,所以N=(3*3*16+1)*32=4640;

    Conv2d_2 层中,i=32,j=64,n=m=3,所以N=(3*3*32+1)*64=18496;

    需要训练的参数个数总计(Trainable params: 448+4640+18496+40141312+513=40165409

原文链接:https://www.jianshu.com/p/02a67e187a72

### 使用CNN进行人脸识别模型训练 #### 数据准备 为了构建有效的人脸识别系统,高质量的数据集至关重要。通常情况下,数据集应包含大量标注好的人脸图像样本。这些样本应当尽可能覆盖不同的光照条件、角度以及表情变化情况[^1]。 ```python import os from torchvision import datasets, transforms data_transforms = { 'train': transforms.Compose([ transforms.RandomResizedCrop(224), transforms.RandomHorizontalFlip(), transforms.ToTensor(), transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225]) ]), 'val': transforms.Compose([ transforms.Resize(256), transforms.CenterCrop(224), transforms.ToTensor(), transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225]) ]), } image_datasets = {x: datasets.ImageFolder(os.path.join(data_dir, x), data_transforms[x]) for x in ['train', 'val']} dataloaders = {x: torch.utils.data.DataLoader(image_datasets[x], batch_size=4, shuffle=True, num_workers=4) for x in ['train', 'val']} dataset_sizes = {x: len(image_datasets[x]) for x in ['train', 'val']} class_names = image_datasets['train'].classes ``` #### 构建CNN架构 卷积神经网络由多个层次组成,其中最重要的是卷积层和池化层。前者负责捕捉局部特征模式;后者用于降低维度并减少过拟合风险。对于人脸识别任务而言,还可以加入全连接层来进一步处理抽象出来的高级特性。 ```python import torch.nn as nn import torch.optim as optim from torchvision import models model_conv = models.resnet18(pretrained=True) for param in model_conv.parameters(): param.requires_grad = False num_ftrs = model_conv.fc.in_features model_conv.fc = nn.Linear(num_ftrs, 2) device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") model_conv = model_conv.to(device) criterion = nn.CrossEntropyLoss() optimizer_conv = optim.SGD(model_conv.fc.parameters(), lr=0.001, momentum=0.9) exp_lr_scheduler = lr_scheduler.StepLR(optimizer_conv, step_size=7, gamma=0.1) ``` #### 训练过程 在完成上述准备工作之后就可以开始正式训练了。此阶段需反复迭代整个数据集直至收敛为止,在每次循环内执行前向传播计算损失函数值再反向更新权重参数以优化目标函数[^2]。 ```python def train_model(model, criterion, optimizer, scheduler, num_epochs=25): since = time.time() best_model_wts = copy.deepcopy(model.state_dict()) best_acc = 0.0 for epoch in range(num_epochs): print('Epoch {}/{}'.format(epoch, num_epochs - 1)) print('-' * 10) # Each epoch has a training and validation phase for phase in ['train', 'val']: if phase == 'train': model.train() else: model.eval() running_loss = 0.0 running_corrects = 0 for inputs, labels in dataloaders[phase]: inputs = inputs.to(device) labels = labels.to(device) outputs = model(inputs) _, preds = torch.max(outputs, 1) loss = criterion(outputs, labels) if phase == 'train': optimizer.zero_grad() loss.backward() optimizer.step() running_loss += loss.item() * inputs.size(0) running_corrects += torch.sum(preds == labels.data) if phase == 'train': scheduler.step() epoch_loss = running_loss / dataset_sizes[phase] epoch_acc = running_corrects.double() / dataset_sizes[phase] print('{} Loss: {:.4f} Acc: {:.4f}'.format( phase, epoch_loss, epoch_acc)) if phase == 'val' and epoch_acc > best_acc: best_acc = epoch_acc best_model_wts = copy.deepcopy(model.state_dict()) print() time_elapsed = time.time() - since print('Training complete in {:.0f}m {:.0f}s'.format( time_elapsed // 60, time_elapsed % 60)) print('Best val Acc: {:4f}'.format(best_acc)) model.load_state_dict(best_model_wts) return model ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值