机器学习10:神经网络的损失函数(Cost Function)

该博客详细介绍了神经网络的损失函数,包括交叉熵损失和正则化项。它阐述了损失函数如何衡量模型预测与真实结果之间的差距,并探讨了L2正则化的角色在防止过拟合中的作用。此外,还讨论了优化算法如梯度下降在损失函数最小化过程中的应用。

损失函数:
假设一共有mmm个样本,LLL层神经网络,KKK种输出结果:
J(Θ)=−1m[∑i=1m∑k=1Kyk(i)log(hΘ(x(i)))k+(1−yk(i))log(1−(hΘ(x(i)))k)]+λ2m∑l=1L−1∑i=1sl∑j=1sl+1(Θji(l))2 J(\Theta)=-\frac{1}{m}\left[\sum_{i=1}^m\sum_{k=1}^Ky_k^{(i)}log(h_\Theta(x^{(i)}))_k+(1-y_k^{(i)})log(1-(h_\Theta(x^{(i)}))_k)\right]\\+\frac{\lambda}{2m}\sum_{l=1}^{L-1}\sum_{i=1}^{s_l}\sum_{j=1}^{s_{l+1}}(\Theta_{ji}^{(l)})^2 J(Θ)=m1[i=1mk=1Kyk(i)log(hΘ(x(i)))k+(1yk(i))log(1(hΘ(x(i)))k)]+2mλl=1L1i=1slj=1sl+1(Θji(l))2
其中,hΘ(x)∈RK,(hΘ(x))i=ith outputh_\Theta(x)\in R^K,\quad(h_\Theta(x))_i=i^{th}\,outputhΘ(x)RK,(hΘ(x))i=ithoutput

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值