第七章 logistic回归 logistic regression

本文探讨了Logistic回归算法在二元分类问题中的应用,解析了其假设陈述、决策界限及代价函数的设计原理。文章还介绍了多元分类中的一对多策略,以及在大规模机器学习问题中使用高级优化算法的优势。

课时46 分类
二(元)分类问题是要预测的y只有0(负类negative class)或1(正类positive class)两种取值。多分类问题y有更多离散取值。
logistic regression算法:0<=hθ(x)<=1 它是一种分类算法classification algorithm,即使名字里面有回归字样。
在这里插入图片描述
课时47 假设陈述hypothesis representation
在这里插入图片描述

课时48决策界限decision boundary
在这里插入图片描述

课时49 代价函数
如果按照类似线性回归的代价函数定义logistic回归的代价函数,也就是所有的模型误差的平方和,将得到一个非凹函数,也就是会有好多局部最优解,无法用梯度下降法得到全局最优解。所以需要找到更好的代价函数使其是凹函数。所以重新定义如下:
在这里插入图片描述
由图也可以看出,当y为1,如果预测值也等于1,则代价为0,如果预测值为0,则预测错了,代价值很大。当y为0,如果预测值也为0,则代价为0,如果预测值为1,则预测错了,用很大的代价来做了惩罚。

课时50 简化代价函数与梯度下降
在这里插入图片描述
简化写法:
在这里插入图片描述
用梯度下降算法时,feature scaling同样适用于logistic regression。

课时51 高级优化
如果能编程计算出J(θ)和在这里插入图片描述,有更优化的算法如下图来替代梯度下降算法,不再需要手动选择学习率,收敛速度也更快,不需要搞清楚具体算法内部的循环,直接调库会用就行了。
在这里插入图片描述
实现方法:
在这里插入图片描述
在octave上实现:
在这里插入图片描述
在这里插入图片描述
exitFlag为1表示已经收敛
在这里插入图片描述
当有一个很大的机器学习问题时,应该用这些高级优化算法而不是梯度下降,速度更快。

课时52 多元分类:一对多
在这里插入图片描述
在这里插入图片描述
(1)代表以class 1作为正类,其他是负类,以此类推。

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值