典型卷积网络

本文深入探讨了深度卷积网络,包括AlexNet和GoogLe Net。GoogLe Net的Inception模块利用Hebbian原则优化网络结构,旨在增加深度和宽度的同时保持计算效率。而RCNN则通过区域CNN解决目标检测问题,但面临过拟合和计算资源限制的问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文介绍一些典型的深度卷积网络

model

model zoo in caffe,
caffe model zoo wiki

netlayer numfinetuned ondataset image num
GoogLe Net22Extended Salient Object Subitizing dataset11k
VGG Net16initial Salient Object Subitizing dataset5500
ALexNet-initial Salient Object Subitizing dataset5500
GoogLe Net

GoogLe Net refer,
paper
BVLC GoogleNet Model
inception modules

ALexNet

paper

Going deeper with convolution

该googlnet是一种神经网络结构“inception”,对于分类和检测ILSVRC14,主要特点该结构能够提高网络内部计算资源的利用率。如果想要实现上述效果,需要精心调整的设计,该涉及允许增加网络的深度和宽度,同时保持计算负担不变。为优化网络的质量,结构性决策给予hebbian 原则和多尺度的直觉。
在本网络中deep有两种含义:一是在构成‘inception moudle’中引入了一种新的level of organization,,另外就是网络的深度增加。
sliders

hebbian principle

Hebbian principle – neurons that fire together, wire together

- Cluster according activation statistics

‘inception moudle’开始是为了评估一种复杂的网络拓扑构建算法的假设输出,该算法目的是逼近一个稀疏结构,用于通过密集的完备的元素来覆盖输出假设的视觉网络。虽然只是来自一个猜想,但是效果不错。as said in the paper

Inception architecture was especially useful in the context of localization and object detection as the base network

RCNN

当前用于目标检测最好的方法是Region with Convolution Neural Network。RCNN分解整个检测问题为两个子问题,首先是用低级的线索例如颜色超像素一致性用来可能的目标提出in a category-agnostic fashion. 然后在对应位置上使用CNN分类器鉴别物体的种类。增加DNN的性能的方法是增加他们的数量,其中包括增加深度网络的宽度。这样的方法在已有大量的有标签的训练数据集时安全简单。但是同时也有一些缺点。
- 网络越大,网络的参数的数量越大,以为着过拟合的可能性变大,尤其是训练集的数量受限时。
- 一致的增大网络的大小会增加网络的计算资源。任何滤波器的数量的均匀的增加会导致计算的二次增长。因为计算资源总是有限的,因此有限的计算资源的分布是优于网路的增大。
解决这个问题的基本方式更换全连接网络为稀疏的连接网络,即使是卷积的内部。

### 典型卷积神经网络(CNN)结构及组成部分 #### 局部连接与权重共享 卷积神经网络具备局部连接和权重共享的特点,这减少了参数数量并增强了模型对于图像变换的鲁棒性[^1]。 #### 卷积层 作为核心组件之一,卷积层通过应用多个滤波器执行卷积运算,即对输入数据(通常是图片)施加一系列过滤操作。此过程涉及将滤波矩阵同输入区域逐元素相乘后再累加的结果,从而提取不同类型的特征[^3]。 ```python import torch.nn as nn class ConvLayer(nn.Module): def __init__(self, in_channels, out_channels, kernel_size=3, stride=1, padding=1): super(ConvLayer, self).__init__() self.conv = nn.Conv2d(in_channels, out_channels, kernel_size, stride, padding) def forward(self, x): return self.conv(x) ``` #### 激活函数层 为了引入非线性因素,在每次卷积之后通常会加入激活函数,比如ReLU(Rectified Linear Unit),它能有效缓解梯度消失问题并加速收敛速度。 ```python def activation_layer(): return nn.ReLU() ``` #### 批规范化(Batch Normalization)层 批规范化有助于稳定和加快训练进程,通过对每一批次的数据进行标准化处理,减少内部协变量偏移现象的影响。 ```python def batch_norm_layer(num_features): return nn.BatchNorm2d(num_features) ``` #### 池化(Pooling)层 池化层用于降低空间维度的同时保留重要信息,常见的形式有最大池化(Max Pooling)和平均池化(Average Pooling)。 ```python def pooling_layer(kernel_size=2, stride=2): return nn.MaxPool2d(kernel_size, stride) ``` #### 全连接(FC)层 位于网络末端的是全连接层,负责接收来自前面各层所抽取出来的高级语义特征,并将其映射至最终分类标签上。此时原本多维的空间分布会被展平成单一向量形式传递给该层处理[^5]。 ```python def fully_connected_layer(input_size, output_size): return nn.Linear(input_size, output_size) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值