14、神经网络与深度学习入门

神经网络与深度学习入门

1. 激活函数

在神经网络中,激活函数起着关键作用。其中,Softmax 回归的概率计算公式为:
[P_i = \frac{e^{x_i}}{\sum_{j=1}^{m} e^{x_j}}, i = 1,2,\cdots,m]
其雅可比矩阵 (J = [J_{ij}]) 可表示为:
[J_{ij} = \frac{\partial P_i}{\partial x_j} = P_i(\delta_{ij} - P_j), (i,j = 1,2,\cdots,m)]
这里的 (\delta_{ij}) 是克罗内克δ函数,当 (i = j) 时,(\delta_{ij} = 1);当 (i \neq j) 时,(\delta_{ij} = 0)。

除了 Softmax 函数,研究人员还设计了其他激活函数,如自适应分段函数。在选择激活函数时,需要考虑多种因素,如问题类型、网络结构等。一般来说,ReLU、Leaky ReLU 和 Softmax 是最常用的激活函数。

2. 人工神经网络

单个神经元只能执行简单的开或关任务,而复杂函数可以通过相互连接的神经元或感知器网络来设计和执行。最常用的网络结构是分层结构,包括输入层、输出层和一个或多个隐藏层。

2.1 网络训练目标

构建神经网络时,需要使用训练数据集来估计网络系统的合适权重。训练的目标是找到一组合适的权重 (w_{ij}),使神经网络既能很好地拟合已知数据,又能对新输入进行准确预测。一个好的人工神经网络应能同时最小化拟合/学习误差和预测误差。

误差可以定义为所有 (N) 个输出神经元的计

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值