多层感知器是在感知器的基础上多元化,原来只是用一个感知器,但是单个感知器因为是单输出,所以只能进行二分类的操作,他并不能进行类似异或问题的求解,再次基础上前辈们提出了多层感知器。

如上图所示,{a11,a12,a13}所代表的是第一层的神经元,{a21,a22}所代表的是第二层的神经元,图中的w代表的是权重。
与单层感知器不同的是这里在前层神经元权重求和后,还有进行一次非线性激活函数激活,最后得到的就是该神经元的值。

如上所示,其中f就是其中的激活函数,激活函数有类似sigmoid函数、tanh函数以及ReLU函数和它的改进Leaky ReLu函数。
MLP多层感知器算法的前馈部分就是这一步,以次遍历到最后的输出。

到此为止为前馈操作,接下来是反馈操作,前馈和反馈之间还存在一个损失函数。

此处损失函数代表的是目标值和结果值之间的差距多大。所以反馈操作的目的就是减小该损失函数的结果值。
根据刚才的神经网络图,进行改进。
根据链式求导法则

在这里我们把激活函数定义为sigmoid函数。

在这里可以看出,sigmoid函数f(z)的导数是f(z)*(1-f(z))

这就可以得出从输出层到隐藏层的导数,

从隐藏层到输入层:
(连式求导)


同理可得出别的导数。
然后用所求出的导数去更新权重。

用MLP多层感知器算法求解异或问题。
import numpy as np
import matplotlib.pyplot as plt
rate=0.1 #学习率
sample_num=4 #样本数据量
class my_mlp:
def __init__(self, input_size, hidden_size, output_size):
self.w1 = np.random.normal(size=(hidden_size, input_size))#输入层到隐藏层
self.w2 = np.random.normal(size=(hidden_size,output_size))#隐藏层到输出层
self.b1

本文介绍了多层感知器(MLP)的概念,解释了其如何通过非线性激活函数解决单层感知器无法解决的异或问题。通过实例展示了如何用Python实现MLP,并利用反向传播算法进行训练。最终,通过绘制误差曲线展示模型在迭代过程中的学习情况。
最低0.47元/天 解锁文章

1346

被折叠的 条评论
为什么被折叠?



