NN_神经网络训练是训练哪些参数

众所知周深度学习(DL)中,神经网络需要依托数据优化各个神经元的参数,也就是训练。那么优化的是什么参数!!!下面逐步探讨展开:

一、单个神经元的数学模型

一个典型的神经元(如MLP中的单元)可表示为:
在这里插入图片描述
这里的激活函数是固定的函数形式,比如你选择用sigmoid,那整个训练过程中它的函数形式始终是不变的,也不含可调参数(除非特别设计、如PReLU)。

二、哪些参数会被梯度下降优化?

在标准MLP中,可学习(可优化)的参数只有两类:

参数类型符号是否可学习说明
权重w连接输入与当前神经元的强度
偏置b控制激活函数的“偏移”位置

激活函数本身不是参数,不被优化(除非使用可学习激活函数,如Swish中的β,但这是高级变体,不在基础BP范畴内)。
因此,针对单个神经元,梯度下降优化的参数就是:

  • 所有权重w1,w2,…wn;
  • 偏置b

三、为什么偏置b(即“阈值”)需要优化?

虽然激活函数f的形状固定,但它的“触发点”由z=W^T*X+b决定。偏置可以控制输入数值在那个范围内变化可以获得更大的输出数值波动(类似阀门,所以称为阈值),因此在训练中,必须通过梯度下降调整不,使神经元在适合的输入条件下**“激活”**。

四、常见误区

容易混淆的两个概念:

概念说明
激活函数的形式如sigmoid,tanH,ReLU – 认为选定、训练中固定
激活(输出随输入大幅度变化)发生的“位置”由z=W^T*X+b决定 – 由b控制、需学习

简而言之,激活函数决定了“怎样通断”(形状),而偏置b决定了“在哪里通断”(偏置位置)。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值