吴恩达机器学习课程作业tips(更新中)

本文深入探讨了神经网络算法与One-vs-All算法在计算代价函数上的区别,通过对比两者在计算过程中的不同,帮助读者理解神经网络如何高效地进行分类任务。同时,文章还介绍了正则化线性回归及其成本函数的计算方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

ex4,

一开始做的时候,卡在了代价函数这里,建议大家用for循环来练习这道题目,真正理解神经网络算法和one-vs-all算法的不同。

这个式子的重点在于计算

one-vs-all,十个分类器,分别做十次logistic回归。每一个的结果h_\theta(x)都要和y求误差。也就是10次计算。再有5000个样本,所以是10*5000次计算。

 

而对于神经网络算法,output layer有十个units,每一个unit和对应y的unit求误差,也就是10次计算。再有5000个样本,所以是10*5000次计算。也就是式子中显示的两层求和,K*m。

而不是每一个outputlayer的unit和每一个y都求误差,那就是10*10*5000(K*m*m)次计算。

ex5 

Regularized Linear Regression a nd Bias v.s.Variance

这边的问题不大,主要是在求regularized linear regression cost function,线性回归正则代价函数。发现总是会给惩罚项从1开始积分,但是实数项的theta是不用积分的。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值