从0开始机器学习--Day7--逻辑回归的代价函数及简化

逻辑回归的代价函数(Cost function of logistic regression)

跟之前线性代数的代价函数不一样的是,我们将后面的平方差项定义出来,即Cost(h_{\theta}(x^{i}),y^{i})=\frac{1}{2}(h_{\theta}(x^{i})-y^{i})^{2},在实际应用中,我们发现如果像处理线性回归的问题一样用这个代价函数来处理分类问题的参数,由于假设函数sigmoid是非线性的,把它带入到Cost函数后再带入到代价函数的话,呈现的图像是非凸函数,是不断波动的,如下图:

凸函数与非凸函数图像对比

从图像中我们可以看到,非凸函数的图像中有很多局部最优解,如果用梯度下降来处理,我们并不能保证它能收敛到全局最小值。所以我们要做的是找到另一个代价函数,使其能够表现出凸函数的性质,从而能让算法在应用时能收敛到全局最小值。

让我们来重新定义一个新的代价函数:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值