训练过程

博客介绍了网络训练的流程。首先准备向量化的训练样本,样本形式多样,如文本、图片、音频等。接着对样本进行清洗处理,以助网络高效准确分类。最后进行正式训练,给出神经元表达式、误差值定义及更新表达式。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、准备样本

在一个复杂的网络中,我们准备一定数量的用来训练的 x 向量,可以是文本,可以是 图片,可以是音频,甚至可以是音视频结合的更为复杂的训练样本,当然只要是输入到网 络中作为训练样本的一定是向量化的。

2、清洗处理

在放人网络进行训练之前,需要进行一定处理,处理的目的是为了帮助网络更高效、更准确地做好分类。

3、正式训练

这里写图片描述
这里写图片描述
根据网络中两个神经元的表达式描述:
zh=whx+bh,yh=11+e−zhz_{h}=w_hx+b_h,y_h=\dfrac{1}{1+e^{-z_h}}zh=whx+bh,yh=1+ezh1
zo=woyh+bo,yo=11+e−zoz_{o}=w_oy_h+b_o,y_o=\dfrac{1}{1+e^{-z_o}}zo=woyh+bo,yo=1+ezo1
x1x_1x1一旦代入后,就会是这样一个映射关系:
zh1=whx1+bh,yh1=11+e−zh1z_{h1}=w_hx_1+b_h,y_{h1}=\dfrac{1}{1+e^{-z_{h1}}}zh1=whx1+bh,yh1=1+ezh11
zo1=woyh1+bo,yo1=11+e−zo1z_{o1}=w_{o}y_{h1}+b_o,y_{o1}=\dfrac{1}{1+e^{-z_{o1}}}zo1=woyh1+bo,yo1=1+ezo11
x1,y1x_1,y_1x1,y1带来的误差值可以定义了Loss1=(yo1−y1)2Loss_1=(y_{o1}-y_1)^2Loss1=(yo1y1)2
由10个训练数据共同带来的误差值就变成了:Loss=∑i=110(yo1−y1)2Loss=\sum^{10}_{i=1}(y_{o1}-y_1)^2Loss=i=110(yo1y1)2也就是需要更新以下四个表达式:
(wh)n=(wh)n−1−η∂Loss∂wh(w_h)^n=(w_h)^{n-1}-\eta\dfrac{\partial Loss}{\partial w_h}(wh)n=(wh)n1ηwhLoss
(bh)n=(bh)n−1−η∂Loss∂bh(b_h)^n=(b_h)^{n-1}-\eta\dfrac{\partial Loss}{\partial b_h}(bh)n=(bh)n1ηbhLoss
(wo)n=(wo)n−1−η∂Loss∂wo(w_o)^n=(w_o)^{n-1}-\eta\dfrac{\partial Loss}{\partial w_o}(wo)n=(wo)n1ηwoLoss
(bo)n=(bo)n−1−η∂Loss∂bo(b_o)^n=(b_o)^{n-1}-\eta\dfrac{\partial Loss}{\partial b_o}(bo)n=(bo)n1ηboLoss
首先将
Loss=∑i=110(yo1−y1)2  ⟹  Loss=12∑i=110(yo1−y1)2Loss=\sum^{10}_{i=1}(y_{o1}-y_1)^2\implies Loss=\frac{1}{2}\sum^{10}_{i=1}(y_{o1}-y_1)^2Loss=i=110(yo1y1)2Loss=21i=110(yo1y1)2

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值