基于Python的深度学习入门指南
1. 神经网络基础与优化
在深度学习领域,我们最初接触到的神经网络通常是前馈网络,在其学习过程中,若未进行进一步优化,可能无法达到理想的效果。那么,神经网络究竟学习什么呢?一般而言,神经网络学习的是权重和偏置项,目的是使最终输出尽可能准确,而这一过程主要借助梯度下降和反向传播来实现。
1.1 优化问题与神经网络
在深入了解梯度下降和反向传播之前,我们先来明确一下优化问题的概念。简单来说,优化问题主要包括两类:一是最小化特定成本,二是最大化特定利润。将其映射到神经网络中,当前馈神经网络输出的性能未达预期时(这种情况十分常见),我们就需要提升其性能,而梯度下降和反向传播便是解决之道。
我们将运用这两种技术来优化神经网络的学习过程。具体而言,我们要确定优化的目标,也就是找到需要最小化或最大化的对象。为此,我们会定义一个成本函数,而在定义该函数之前,需先确定其参数。在神经网络中,权重和偏置就是我们要学习的参数,通过不断调整这些参数,使网络输出更准确。
同时,在训练过程的每一步,我们还需计算网络产生的损失量。对于二分类问题,广泛使用的是交叉熵损失函数(在二分类中具体称为二元交叉熵损失函数)。这个函数具有凸性,非常适合像梯度下降这样的凸优化器。
1.2 梯度下降与反向传播的操作步骤
梯度下降的主要目标有两个:一是找到成本函数的最小值点,二是确定合适的权重和偏置值,使成本函数达到该最小值点。为了直观理解,我们可以以一个简单的凸函数为例。假设我们从一个随机点开始,通过以下更新规则逐步逼近目标点:
- 对于权重的更新,我们对成本函数 $J(w,b)$ 关于权重求偏导
超级会员免费看
订阅专栏 解锁全文
1978

被折叠的 条评论
为什么被折叠?



