深度学习-卷积神经网络(CNN)

本文深入探讨卷积神经网络(CNN)的基本原理,包括卷积层、激活函数、池化层、全连接层和输出层。详细介绍了卷积核的选择偏好、ReLU激活函数及其变种,以及经典CNN模型如LeNet-5、AlexNet、VGGNet、Inception Net和ResNet的特点和贡献。通过理解这些基础知识,有助于更好地掌握深度学习的实践应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  1. CNN基本原理
  2. 经典CNN

卷积神经网络基本原理

卷积神经网络的基本结构大致包括:卷积层、激活函数、池化层、全连接层、输出层等。

卷积层

二维卷积运算:给定二维的图像I作为输入,二维卷积核K,卷积运算可表示为 S(i,j)=(I∗K)(i,j)=∑m∑nI(i−m,j−n)K(m,n)S(i, j)=(I * K)(i, j)=\sum_{m} \sum_{n} I(i-m, j-n) K(m, n)S(i,j)=(IK)(i,j)=mnI(im,jn)K(m,n),卷积核需要进行上下翻转和左右反转
S(i,j)=sum⁡(I(i−2,j−2)I(i−2,j−1)I(i−2,j)I(i−1,j−2)I(i−1,j−1)I(i−1,j)I(i,j−2)I(i,j−1)I(i,j)].∗[K(2,2)K(2,1)K(2,0)K(1,2)K(1,1)K(1,0)K(0,2)K(0,1)K(0,0)]) \left.S(i, j)=\operatorname{sum}\left(\begin{array}{ccc}I(i-2, j-2) & I(i-2, j-1) & I(i-2, j) \\ I(i-1, j-2) & I(i-1, j-1) & I(i-1, j) \\ I(i, j-2) & I(i, j-1) & I(i, j)\end{array}\right] . *\left[\begin{array}{rll}K(2,2) & K(2,1) & K(2,0) \\ K(1,2) & K(1,1) & K(1,0) \\ K(0,2) & K(0,1) & K(0,0)\end{array}\right]\right) S(i,j)=sumI(i2,j2)I(i1,j2)I(i,j2)I(i2,j1)I(i1,j1)I(i,j1)I(i2,j)I(i1,j)I(i,j).K(2,2)K(1,2)K(0,2)K(2,1)K(1,1)K(0,1)K(2,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值