神经网络与深度学习入门
1. 神经网络发展概述
神经网络(NNs)的灵感来源于对猫的初级视觉皮层的研究。早期的实验表明,神经元网络以分层的细胞结构来处理视觉刺激。1980年,第一个神经网络的数学模型——神经认知机诞生,它具备了如今深度卷积神经网络(DCNNs)的许多特征,如多层结构、卷积、最大池化和非线性动态节点。
近年来,DCNNs在计算机视觉领域取得成功主要得益于两个关键因素:
- 计算能力的持续增长。
- 大量带标签的数据集,如ImageNet,它提供了超过1500万张带标签的高分辨率图像,涵盖22000多个类别。
在20世纪90年代初,神经网络就已成为学习内容,但当时主要关注少量的层。一些关键的机器学习任务,如主成分分析(PCA),与包含反向传播的网络密切相关。过去十年,神经网络架构取得了巨大进展,许多架构是为特定应用领域设计的。算法创新包括预训练、随机失活、Inception模块、数据增强、批量归一化和残差学习等,推动了神经网络在各个领域的性能提升。
2. 神经网络的优化基础
所有机器学习本质上都围绕优化展开,神经网络具体优化的是一个复合函数:
[
\underset{A_j}{\text{argmin}} (f_M(A_M, \ldots, f_2(A_2, f_1(A_1, x)) \ldots) + \lambda g(A_j))
]
这个函数通常使用随机梯度下降和反向传播算法来求解。其中,矩阵 ( A_k ) 表示神经网络从第 ( k ) 层到第 ( k + 1 ) 层的连接权重,该系统是一个高度欠定的系统,通过 ( g(A_j) ) 进行正则化。复合和正则化
超级会员免费看
订阅专栏 解锁全文
1277

被折叠的 条评论
为什么被折叠?



