手算推导BP神经网络

一、神经元

下图的蓝色区域被称为一个“感知机”(Perceptron), 感知机是对信息进行编码、压缩、集成、融合的计算机智能接口系统。

说白了,就是在输入端输入X1~X7这7个输入值,在感知机中乘以各自的权重矩阵、加上偏置值b后再放入激活函数f,最后输出结果y.

 

 

图中黄圈也代表了一个“感知机”,黄圈中进行了1.矩阵点乘后求和,2.加偏置值b,3.经过激活函数变换,这三项操作。

 

 

 常见的三种激活函数是sigmoid函数(又称S函数)、tanh函数和Relu函数,图像和公式见下:

 

 

二、输入层、隐藏层、输出层

 

先求输出层的误差,而后倒推出隐藏层和输入层的误差:(d为真实值,O为最终预测值)

 

 

权重虚拟值:

偏置虚拟值:

 

 三、开始手推公式

 

neth1 通过sigmoid激活函数之后,得到outh1,我们先看一下sigmoid函数的长什么样:(其实上面介绍激活函数时也画出来了)

同理可得:

 

 

同理:

总损失:  

 

那么到此,结果的总损失已经算出,现在需要反向传播求偏导,以求出每一个参数对最终总损失的‘贡献’,为参数更新做准备。

 

 

                                               

同理:

  

从而得到W1更新值:

        

(注:1. 为学习率,即梯度下降中的步长,为超参数。

2.为什么学习率前是负号?因为目标函数一般都是下凹函数,偏导为正就需左移自变量,为负就需右移自变量)                                                                                              

同理可得到每一个W的更新值:

                

 

 顺便放在程序上跑一跑,可以发现进行这样的反向传播梯度更新的确会使最终结果越来越接近目标值。

(实际O1=0.01,O2=0.09)

 

最初的权重矩阵W0(随机赋值)是这样的:        

                      

迭代1000次(也就是更新1000次参数后)的权重矩阵W1000:

 

 

转载于:https://www.cnblogs.com/wangliman/p/9798014.html

### 关于BP神经网络工计示例 对于BP神经网络工计,可以构建一个简单的两层前馈神经网络来进行说明。假设有一个输入层、隐藏层以及输出层的简单结构。 #### 定义网络结构 设输入层有三个节点 \(X_1, X_2\) 和偏置项 \(b\), 隐藏层有两个节点加上偏置项,输出层只有一个节点用于二分类问题。权重初始化如下: - 输入到隐藏层之间的权值矩阵 \(\mathbf{W}_h=\begin{pmatrix} w_{11}&w_{12}\\ w_{21}&w_{22}\end{pmatrix}\),其中\(w_{ij}\)表示第i个输入连接至第j个隐含单元; - 偏置向量 \(\mathbf{b}_h=(b_h)\); - 隐藏层到输出层间的权值向量 \(\mathbf{v}= (v_1,v_2)^T\) 及其对应的偏置 \(c_o\). 给定一组样本数据及其标签作为训练集的一部分: | 特征 | 输出 | | --- | ----| |\(x^{(1)}=[0.5,-0.3]\)|y=1| 激活函数采用Sigmoid形式\[f(x)=\frac{1}{1+e^{-x}}.\] #### 正向传播过程 根据上述设定,在正向传递过程中,先计隐藏层各节点净输入并应用激活函数得到实际输出;再利用这些结果继续向前推进直到获得最终预测值。 - 计隐藏层净输入:\[\eta_j=w_{1j}*x_1+w_{2j}*x_2+b_h,\quad j=1,2;\] - 应用激活函数后的输出为:\[a_j=f(\eta_j);\] - 对于输出层而言,则是将来自所有隐藏单位的信息汇总起来并通过另一个线性组合加偏置形成最后的结果。\[z=v_1*a_1+v_2*a_2+c_o\] - 经过sigmoid变换后得出预测概率p:[^1]. #### 反向传播更新规则 一旦有了预测误差E(比如均方差),就可以按照链式法则求导数来调整各个层次上的参数了。具体来说就是分别针对每一组连接权重和偏置项求得梯度方向,并据此做出相应修正。 - 更新输出层到隐藏层之间链接强度的变化量Δvj: - δo代表输出层错误信号; - 使用δo乘以对应位置处隐藏层活动水平aj即得所需改变幅度。 - 同理可推知如何修改从输入指向隐藏部分那些路径上携带的数据流大小dw_ij. 此流程迭代执行直至满足收敛条件为止. ```python import numpy as np def sigmoid(z): return 1 / (1 + np.exp(-z)) # 初始化参数 weights_input_hidden = np.array([[0.1, 0.2], [0.3, 0.4]]) bias_hidden = 0.5 weights_hidden_output = np.array([0.6, 0.7]) bias_output = 0.8 input_data = np.array([0.5, -0.3]) # 正向传播 hidden_net_inputs = weights_input_hidden @ input_data + bias_hidden hidden_outputs = sigmoid(hidden_net_inputs) output_net_input = hidden_outputs.T.dot(weights_hidden_output)+bias_output predicted_output = sigmoid(output_net_input) print(f'Predicted Output: {predicted_output}') ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值