- 博客(7)
- 收藏
- 关注
原创 循环神经网络RNN与LSTM
循环神经网络(Recurrent Neural Network,RNN)与卷积神经网络一样,都是深度学习中的重要部分。循环神经网络可以看作一类具有短期记忆能力的神经网络。在循环神经网络中,神经元不但可以接收其他神经元的信息,也可以接收自身的信息,形成具有环路的网络结构,正因为能够接收自身神经元信息的特点,让循环神经网络具有更强的记忆能力。卷积神经网络和全连接网络的数据表示能力已经非常强了,为什么还需要RNN呢?这是因为现实世界中面临的问题更加复杂,而且很多数据的输入顺序对结果有重要影响。
2023-08-27 22:03:16
260
1
原创 MLP-垃圾邮件分类
全连接神经网络(Multi-Layer Perception,MLP)或者叫多层感知机,是一种连接方式较为简单的人工神经网络结构,属于前馈神经网络的一种,主要由输入层、隐藏层和输出层构成,并且在每个隐藏层中可以有多个神经元。层层计算输出预测结果,利用损失函数反向传播计算参数梯度,利用梯度下降等优化算法更新模型参数,来减小损失,即选取最优参数来拟合样本和目标之间的关系,从而使得预测效果最好,可以通过模型预测新样本的目标。全连接神经网络示意图。
2023-07-22 12:05:54
713
原创 反向传播算法与梯度下降算法
梯度下降法通常也称为最速下降法,是一种用于最小化损失函数的优化算法。思想是通过函数当前点对应梯度(或者是近似梯度)的反方向,使用规定步长距离进行迭代搜索,希望找到一组参数(θ)使得损失函数最小化。但是当存在非常多的参数时,梯度计算非常困难,可以使用反向传播算法来解决这个问题,因此,反向传播算法其实就是梯度下降法过程中用来有效率地计算梯度的方法。前馈过程就是在每一步计算中,计算出z相对于w的梯度,用于后续计算。反馈过程就是计算对于所有激活函数输入z的梯度,过程中要使用的链式法则。前馈过程得到的每一步对
2023-07-21 14:43:19
1064
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人