分类问题-机器学习(machine learning)笔记(Andrew Ng)

本文深入探讨了逻辑回归这一核心分类算法的基础原理与应用实践。详细解释了假设函数如何通过S型函数映射概率,并介绍了决策边界的含义。此外,还讲解了成本函数的设计原则及其简化形式,并提供了基于梯度下降法来最小化成本函数的具体步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

分类算法(classification problem)

逻辑回归(logistic regression)

hypothesis

hθ(x)=g(θTx)g(z)=11+ez

g(z)被称作S型函数(sigmoid function)或者逻辑函数(logistic function),函数图像如图所示,过 (0,0.5) 点,正无穷趋于 1 ,负无穷趋于0

这里写图片描述

实际上,这个假设函数计算的是 P(y=1|x;θ) ,即给定 x 的条件下,y=1的概率,然后我们使得

y={1,0,ififhθ(x)0.5hθ(x)<0.5nownowθTx0θTx<0

其中 θTx=0 或者 hθ(x)=0.5 被称为决策边界(decision boundary),易见 θ 确定下来后,决策边界也会确定下来。
在线性回归中用到的两种拟合的方法也可以用在这里:

  • 线性 hθ(x)=g(θ0+θ1x1+θ2x2)
  • 多项式 hθ(x)=g(θ0+θ1x1+θ2x2+θ3x21+θ4x22)

cost function

J(θ)=1mi=1mCost(hθ(x(i)),y(i))Cost(hθ(x),y)={log(hθ(x))log(1hθ(x))ifify=1y=0

如果 hθ(x) 趋向于1的时候, y 的预测值应当取作1,所以此时 y=1 的时候, Cost 函数应当尽可能的小。当 hθ(x) 取到1的时候, Cost=0
如果 hθ(x) 趋向0的时候, y 的预测值应当取做0,但是如果此时y=1,说明我们的算法很烂, Cost 应该尽可能大。当 hθ(x) 趋向0的时候, Cost 趋向于无穷。
y=0 的分析相似。
我们可以简化 Cost

Cost(hθ(x),y)=ylog(hθ(x))(1y)log(1hθ(x))

所以最后的cost function为:
J(θ)=1m[i=1my(i)loghθ(x(i))+(1y(i))log(1hθ(x(i)))]

todo 这个式子是从极大似然估计而来的
为了得到 θ 的估计值,我们可以使用梯度下降,更新的过程如下:
θj:=θjαi=1m(hθ(x(i))y(i))x(i)j

关于这个式子的得到仍然是对代价函数 J(θ) 求偏导,以求能够找到以步伐 α 最快“下山”的路径。
求导过程:
这里写图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值