损失函数:
假设一共有mmm个样本,LLL层神经网络,KKK种输出结果:
J(Θ)=−1m[∑i=1m∑k=1Kyk(i)log(hΘ(x(i)))k+(1−yk(i))log(1−(hΘ(x(i)))k)]+λ2m∑l=1L−1∑i=1sl∑j=1sl+1(Θji(l))2
J(\Theta)=-\frac{1}{m}\left[\sum_{i=1}^m\sum_{k=1}^Ky_k^{(i)}log(h_\Theta(x^{(i)}))_k+(1-y_k^{(i)})log(1-(h_\Theta(x^{(i)}))_k)\right]\\+\frac{\lambda}{2m}\sum_{l=1}^{L-1}\sum_{i=1}^{s_l}\sum_{j=1}^{s_{l+1}}(\Theta_{ji}^{(l)})^2
J(Θ)=−m1[i=1∑mk=1∑Kyk(i)log(hΘ(x(i)))k+(1−yk(i))log(1−(hΘ(x(i)))k)]+2mλl=1∑L−1i=1∑slj=1∑sl+1(Θji(l))2
其中,hΘ(x)∈RK,(hΘ(x))i=ith outputh_\Theta(x)\in R^K,\quad(h_\Theta(x))_i=i^{th}\,outputhΘ(x)∈RK,(hΘ(x))i=ithoutput
机器学习10:神经网络的损失函数(Cost Function)
最新推荐文章于 2022-10-03 20:50:20 发布
该博客详细介绍了神经网络的损失函数,包括交叉熵损失和正则化项。它阐述了损失函数如何衡量模型预测与真实结果之间的差距,并探讨了L2正则化的角色在防止过拟合中的作用。此外,还讨论了优化算法如梯度下降在损失函数最小化过程中的应用。
3308

被折叠的 条评论
为什么被折叠?



