机器学习——多层感知机MLP的相关公式

本文详细介绍了多层感知机(MLP)的前向传播、激活函数、损失函数和误差反向传播过程。在前向传播中,涉及加权求和与神经元输出值的计算。激活函数选用Sigmoid,损失函数采用误差平方和。在反向传播中,通过梯度下降更新权重,包括输出层和隐藏层权重的更新规则。对于有多个隐藏层的情况,同样遵循类似的更新原则。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

iii作为上一层神经元的下标,或者是输入层节点
jjj作为当前层神经元的下标,或者是隐藏层神经元
kkk作为下一层神经元的下标,或者是输出层神经元

i,j,ki,j,ki,j,k表示不同层的相对关系:i→j→ki\rightarrow j\rightarrow kijk

wijw_{ij}wij表示上一层各神经元到当前神经元的权重,也就是神经元jjj的权重
wjkw_{jk}wjk表示当前神经元与下一层各神经元的权重,也就是神经元kkk的权重

前向传播

加权求和 hhh

hj=∑i=0Mwijxjh_j=\sum_{i=0}^Mw_{ij}x_jhj=i=0Mwijxj

  • hjh_jhj表示当前节点的所有输入加权之和

神经元输出值 aaa

aj=g(hj)=g(∑i=0Mwijxij)a_j=g(h_j)=g(\sum_{i=0}^Mw_{ij}x_{ij})aj=g(hj)=g(i=0Mwijxij)

  • aja_jaj表示隐藏层神经元的输出值
  • g()g()g()代表激活函数,www是权重,xxx是输入,w0jx0jw_{0j}x_{0j}w0jx0j表示偏移节点(bias node)
  • aj=xjka_j=x_{jk}aj=xjk,即当前层神经元的输出值,等于下一层神经元的输入值

输出层的输出值 yyy

y=ak=g(hk)=g(∑i=0Mwjkxjk)y=a_k=g(h_k)=g(\sum_{i=0}^Mw_{jk}x_{jk})y=a

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值