卷积神经网络:原理与应用解析
1. 引言
近年来,卷积神经网络(CNNs)取得了以往被认为只有人类才能达到的成果。在深入了解 CNNs 之前,我们先从常规神经网络入手,探讨其训练方法,再引入卷积的概念,进而介绍 CNNs。CNNs 与常规神经网络类似,都由带有可学习权重的神经元组成。但与多层感知器(MLPs)不同的是,CNNs 明确假设输入具有类似图像的特定结构,通过在图像的每个位置共享权重,并让神经元仅对局部做出响应,将这一特性融入网络架构。
2. 神经网络基础
2.1 神经元的定义
神经网络的发展源于 Frank Rosenblatt 对感知器的研究,其起点是神经元的定义。从数学角度看,神经元是对仿射函数应用非线性变换的结果。输入特征 $x = (x_1,x_2,\cdots,x_n)$ 经过一个由仿射函数和非线性函数 $\phi$ 组成的变换:
[T(x) = \phi\left(\sum_{i} W_ix_i + b\right) = \phi(W \cdot x + b)]
其中,$W$ 是权重,$b$ 是偏置。一个典型的非线性函数(激活函数)是 sigmoid 函数:
[\sigma(x) = \frac{1}{1 + e^{-x}}]
2.2 神经网络的结构
神经网络可以建模为一组以无环图形式连接的神经元集合。通常,神经元按层组织,包括一个输入层、一个或多个隐藏层和一个输出层。输出层通常没有激活函数,这类网络常被称为多层感知器(MLP)或人工神经网络(ANN)。若要明确层数,可将其称为 $N$ 层网络($N$ 不包括输入层)。
例如,一个具有三个
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



