机器学习学习笔记(五)——分类

本文深入解析了二分类问题中Logistic回归的应用,介绍了假设函数、决策边界、代价函数及梯度下降等关键概念,探讨了如何通过Logistic函数进行分类预测。

二分类问题

在分类问题中,一般不使用线性回归进行分类,因为效果很差。

在二元分类问题上,我们使用logistic回归进行分类

假设函数

在logistic回归中,有logistic函数
g(z)=11+e−z g(z)=\frac{1}{1+e^{-z}} g(z)=1+ez1
假设函数为
hθ(x)=11+e−θTx h_\theta(x)=\frac{1}{1+e^{-\theta^Tx}} hθ(x)=1+eθTx1
假设函数hθ(x)h_\theta(x)hθ(x)代表y=1y=1y=1的概率,则y=0y=0y=0的概率为1−hθ(x)1-h_\theta(x)1hθ(x)

如果我们认为当hθ(x)>0.5h_\theta(x)>0.5hθ(x)>0.5的时候,可以认为y=1y=1y=1;

且logistic函数有如下性质
z≥0,g(z)≥0.5 z\geq0,g(z)\geq0.5 z0,g(z)0.5
则我们可以认为如果ΘTX≥0\Theta^TX\geq0ΘTX0,则y=1y=1y=1;如果ΘTX&lt;0\Theta^TX&lt;0ΘTX<0,则y=0y=0y=0 。那么我们可以用线ΘTX=0\Theta^TX=0ΘTX=0将两类分离开,这条线称作决策边界

代价函数

在今后我们统一将代价函数写为
J(Θ)=1m∑i=1mcost(hΘ(x(i)),y) J(\Theta)=\frac{1}{m}\sum_{i=1}^{m}{cost(h_\Theta(x^{(i)}),y)} J(Θ)=m1i=1mcost(hΘ(x(i)),y)
在logistic回归中由于平方误差函数不是凸函数,可能会落入局部最优解,我们使用如下的cost函数
cost(hΘ(x),y)={−log(hΘ(x))y=1−log(1−hΘ(x))y=0 cost(h_\Theta(x),y)=\begin{cases} -log(h_\Theta(x))&amp;y=1\\ -log(1-h_\Theta(x))&amp;y=0\end{cases} costhΘ(x),y)={log(hΘ(x))log(1hΘ(x))y=1y=0
则代价函数可以写为
J(Θ)=−1m∑i=1my(i)log(hΘ(x(i))+(1−y(i))log(1−hΘ(x(i))) J(\Theta)=-\frac{1}{m}\sum_{i=1}^{m}{y^{(i)}log(h_\Theta(x^{(i)})+(1-y^{(i)})log(1-h_\Theta(x^{(i)}))} J(Θ)=m1i=1my(i)log(hΘ(x(i))+(1y(i))log(1hΘ(x(i)))

梯度下降

经过一些里骚操作推导得到梯度下降公式
θj:=θj−αm∑i=1m(hΘ(x(i))−y(i))xj(i) \theta_j:=\theta_j-\frac{\alpha}{m}\sum_{i=1}^{m}{(h_\Theta(x^{(i)})-y^{(i)})x^{(i)}_j} θj:=θjmαi=1m(hΘ(x(i))y(i))xj(i)
这里
hΘ(x)=11+e−ΘTx h_\Theta(x)=\frac{1}{1+e^{-\Theta^Tx}} hΘ(x)=1+eΘTx1

高级优化

线性搜索

共轭梯度

多分类

将一个多分类问题转化成多个二分类问题。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值