吴恩达机器学习第六章学习笔记

本文深入探讨逻辑回归算法,作为分类问题的解决方案,介绍了其假设函数、决策边界及代价函数的特性,对比线性回归,强调其在二元分类问题中的优势。

逻辑回归(logistic regression)

逻辑回归算法实际是分类算法。

二元分类问题(binary classification problem)

在这里插入图片描述
如上图,这是一个判断肿瘤恶性值的二元分类问题,我们画出了如粉线所示的线性回归图像,设阈值为0.5,若hθ(x)>0.5h_\theta^{(x)}>0.5hθ(x)>0.5则被归类于y=1y=1y=1,hθ(x)<0.5h_\theta^{(x)}<0.5hθ(x)<0.5则被归类于y=0y=0y=0。但hθ(x)h_\theta^{(x)}hθ(x)可以大于1,也可以小于0,并且可以看出线性回归拟合数据不是很好,同时我们也可以画出除粉线之外的其他线性回归图像,所以线性回归不能很好解决分类问题。

逻辑回归的假设函数(逻辑函数或S型函数)

(ps:这里的θ\thetaθxxx都代表矩阵或向量)
由前面的学习我们知道了线性回归的假设函数:hθ(x)=θTxh_\theta^{(x)}=\theta^{T}xhθ(x)=θTx,而由二元分类我们可以得出我们需要的模型的取值范围应该在0和1之间。逻辑函数为:hθ(x)=11+e−θTxh_\theta^{(x)}=\frac{1}{1+e^{-{\theta^T}x}}hθ(x)=1+eθTx1。推导过程如下:
在这里插入图片描述
图像为:
在这里插入图片描述

决策边界(decision boundary)

在这里插入图片描述
由上图可知,当hθ(x)h_\theta^{(x)}hθ(x)(或g(z)g(z)g(z))大于0.5时我们预测y=1,hθ(x)h_\theta^{(x)}hθ(x)(或g(z)g(z)g(z))小于0.5时,我们预测y=0。即z>0时,预测y=1,z<0时,预测y=0,即θTx\theta^TxθTx>0时,预测y=1,θTx\theta^TxθTx<0时,预测y=0。
由此我认为决策边界是由参数决定的区分数据的图像,如下图的粉线所示:
在这里插入图片描述
在这里插入图片描述

逻辑回归的代价函数

在这里插入图片描述
我们知道代价函数是这样表示的:J(θ)=1m∑i=1m12(hθ(xi)−y(i))2J(\theta)=\frac{1}{m}\sum_{i=1}^{m}\frac{1}{2}(h_\theta^{(x^{i})}-y^{(i)})^2J(θ)=m1i=1m21(hθ(xi)y(i))212\frac{1}{2}21移到了求和符号里面),cost(hθ(x(i)),y(i))=12(hθ(xi)−y(i))2cost(h_\theta^{(x^{(i)})},y^{(i)})=\frac{1}{2}(h_\theta^{(x^{i})}-y^{(i)})^2cost(hθ(x(i)),y(i))=21(hθ(xi)y(i))2,则J(θ)=12∑i=1mcost(hθ(x(i)),y(i))J(\theta)=\frac{1}{2}\sum_{i=1}^{m}cost(h_\theta^{(x^{(i)})},y^{(i)})J(θ)=21i=1mcost(hθ(x(i)),y(i))如果cost(hθ(x(i)),y(i))cost(h_\theta^{(x^{(i)})},y^{(i)})cost(hθ(x(i)),y(i))使用平方差公式表示,那么我们画出代价函数与参数的图像(如下图所示),可以看出这是一个非凸函数的图像:
在这里插入图片描述
这明显看出不利于找出最优点,因此我们如果想得到一个凸函数图像,那么cost(hθ(x(i)),y(i))cost(h_\theta^{(x^{(i)})},y^{(i)})cost(hθ(x(i)),y(i))就不能使用上面的平方差公式,我们令cost(hθ(x(i)),y(i))cost(h_\theta^{(x^{(i)})},y^{(i)})cost(hθ(x(i)),y(i))如下:
在这里插入图片描述
图像如下:
在这里插入图片描述
这是一个凸函数图像,可以找出最优点,
cost(hθ(x(i)),y(i))cost(h_\theta^{(x^{(i)})},y^{(i)})cost(hθ(x(i)),y(i))的图像如下(因为cost(hθ(x(i)),y(i))cost(h_\theta^{(x^{(i)})},y^{(i)})cost(hθ(x(i)),y(i))的公式是分情况讨论的,所以图像也是如此):
在这里插入图片描述
在这里插入图片描述
cost(hθ(x(i)),y(i))cost(h_\theta^{(x^{(i)})},y^{(i)})cost(hθ(x(i)),y(i))的公式,我们能推出以下性质:
在这里插入图片描述
我们已经知道了分情况讨论的cost(hθ(x(i)),y(i))cost(h_\theta^{(x^{(i)})},y^{(i)})cost(hθ(x(i)),y(i)),那么我们也可以合并两种情况:
在这里插入图片描述
在这里插入图片描述
代价函数求下导得:
在这里插入图片描述
虽然逻辑回归的梯度求导算法与线性回归的梯度求导算法看着相似,但实际上这是两种不同的算法,因为假设函数发生了变化。

多元分类问题(multi-class classification problem)

在这里插入图片描述
如图所示,分别分类第一次令三角形为正类,第二次令正方形为正类,第三次令×为正类,分别训练模型,预测x时选择最大的hθ(x)h_\theta(x)hθ(x)

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值