BP中权值更新

ReLU 的缺点:
训练的时候很”脆弱”,很容易就”die”了
例如,一个非常大的梯度流过一个 ReLU 神经元,更新过参数之后,这个神经元再也不会对任何数据有激活现象了,那么这个神经元的梯度就永远都会是 0.
如果 learning rate 很大,那么很有可能网络中的 40% 的神经元都”dead”了。

BP算法中:
有时是
在这里插入图片描述
有时是:
在这里插入图片描述
这是根据损失函数而定的。以平方损失来说,若损失函数(误差函数)是:
在这里插入图片描述
对应更新规则是:
在这里插入图片描述
若损失函数(误差函数)是:
在这里插入图片描述
对应更新规则是:
在这里插入图片描述
式中,d是标签,y是网络的输出。
在这里插入图片描述
下边这段解释了为什么这样,链接是:https://blog.youkuaiyun.com/hrkxhll/article/details/80395033
在这里插入图片描述

若换成交叉熵损失,目前还不是很清楚。

在这里插入图片描述

![在这里插入图片描述](https://img-blog.csdnimg.cn/20210425194555893.jpg?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80MTAxMjM5OQ==,size_16,color_FFFFFF,t_70

在这里插入图片描述

### BP神经网络权值更新的代码实现 在BP神经网络中,权值更新是通过误差逆传播算法完成的关键部分之一。该过程涉及计算损失函数相对于各层权重的梯度,并利用这些梯度来调整权重以最小化预测误差。 以下是基于Python编写的简单BP神经网络示例中的权值更新逻辑: ```python import numpy as np class NeuralNetwork: def __init__(self, input_nodes, hidden_nodes, output_nodes, learning_rate): self.input_nodes = input_nodes self.hidden_nodes = hidden_nodes self.output_nodes = output_nodes # 初始化权重矩阵 self.weights_input_to_hidden = np.random.normal(0.0, self.hidden_nodes ** -0.5, (self.hidden_nodes, self.input_nodes)) self.weights_hidden_to_output = np.random.normal(0.0, self.output_nodes ** -0.5, (self.output_nodes, self.hidden_nodes)) self.lr = learning_rate def sigmoid(self, x): return 1 / (1 + np.exp(-x)) def sigmoid_derivative(self, y): return y * (1 - y) def train(self, inputs_list, targets_list): # 将输入列表转换成二维数组形式 inputs = np.array(inputs_list, ndmin=2).T targets = np.array(targets_list, ndmin=2).T # 计算隐藏层输出 hidden_outputs = self.sigmoid(np.dot(self.weights_input_to_hidden, inputs)) # 计算最终输出 final_outputs = np.dot(self.weights_hidden_to_output, hidden_outputs) # 输出层误差 output_errors = targets - final_outputs # 隐藏层误差 hidden_errors = np.dot(self.weights_hidden_to_output.T, output_errors) hidden_grads = hidden_errors * hidden_outputs * (1.0 - hidden_outputs) # 更新隐藏层到输出层的权重 self.weights_hidden_to_output += self.lr * np.dot((output_errors), hidden_outputs.T) # 更新输入层到隐藏层的权重 self.weights_input_to_hidden += self.lr * np.dot(hidden_grads, inputs.T)[^2] nn = NeuralNetwork(input_nodes=3, hidden_nodes=4, output_nodes=2, learning_rate=0.6) inputs = [1.0, 0.5, -1.0] targets = [0.7, 0.3] nn.train(inputs, targets) ``` 此段代码展示了如何定义一个具有单个隐藏层的前馈神经网络类`NeuralNetwork`,并实现了其训练方法`train()`用于执行一次完整的正向传播和反向传播操作,在其中包含了权值更新的过程。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值