- 博客(3)
- 收藏
- 关注
原创 深度学习(matlab)——3.多分类
在前面两节我们已经可以通过一个简单的多层神经网络来实现一些二分类的问题,但是当在某些情况下,我们的样本可能不止需要被分为不止一类,那么怎么样找到当前样本在这样多的分类种最有可能的情况就是我们需要解决的问题。一个很简单的思路就是按照之前Sigmoid的方法计算之后,计算每个分类的值后,再计算每个分类值占总和的百分比,这样根据这个比例,我们就可以在多种的分类种类种找到最有可能的分类结果。这也就是激活函数Softmax的原理。而Softmax最重要的意义是将多分类的输出值转化为[0,1]之间和为1的概率分布。
2022-01-22 23:34:11
4375
1
原创 深度学习(matlab)学习笔记——2.多层神经网络
2.1反向传播算法(Backprop) 根据上一章最后得到的结果我们可以发现,单层的神经网络尽管节点再多也不能解决非线性分类问题(还有其他很多问题),所以我们需要如下图所示的多层神经网络(感谢数模队友做的图~~) 显然,当隐含层数增多,我们就无法通过正确输入的结果与计算结果计算误差从前往后进行修正权重,因为我们并不知道第一隐含层的正确结果,所以,就可以转换思维,从后往前,从输出层反向推导,之后再用计算出的误差向前与权重相乘,最后直到将这个误差经过多层网络加权逆推回到...
2021-12-05 16:15:04
2816
原创 深度学习(matlab)学习笔记——1.单层神经网络
单层神经网络通过一个输入层计算后得到输出层,对每个输入通过加权求和(w),以及加阈值(b),再通过激活函数f(x)得到对应的输出。 在监督学习下输入的数据为 [输入,正确输入] ,即已经获得了正确的结果,在训练过程中通过已知的数据集来训练参数w,在训练过程中有采用增量规则,具体有两种算法随机梯度下降法(SGD)以及批量算法(Batch),其中SGD速度更快,Batch对数据要求不大,稳定性好。一、随机梯度下降算法采用Sigmoid作为激活函数,w=w+alpha...
2021-11-21 20:21:43
3490
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人