动手学深度学习-线性神经网络

文章介绍了线性回归模型,包括其数学表示和平方损失函数。线性回归有显式解,但在无解的情况下,可以使用梯度下降法进行参数优化。此外,文章还提及了Softmax回归,但内容未展开。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

线性回归

模型:y=WX+by = \boldsymbol {W} \boldsymbol {X}+by=WX+b
线性模型可以看作是单层神经网络 (与感知机区别开!!!)
平方损失:l(y^,y)=12(y−y^)2l(\hat y,y)=\frac{1}{2}(y-\hat y)^{2}l(y^,y)=21(yy^)2(和MSE区分开!!!)

在样本上训练的时候,求解的是所有样本损失值的平均值

线性回归具有显示解

动手实践

梯度下降算法

当没有显示解的时候,用到一种名为梯度下降(gradient descent)的方法, 这种方法几乎可以优化所有深度学习模型。 它通过不断地在损失函数递减的方向上更新参数来降低误差。

Softmax回归

待更新ing

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值