机器学习—逻辑回归

本文探讨了逻辑回归在二元分类问题中的应用,介绍了假设函数的表示方法及其如何给出输出为1的概率,并通过梯度下降法来最小化代价函数。此外,还讨论了一对多的多分类方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

逻辑回归

@(My machine learing)

week three 4.30

Classification

For now, we will focus on the binary classification problem in which y can take on only two values, 0 and 1.
例如,一个邮件是垃圾邮件还是正常的
可以分为两类
也可以分为很多类

Hypothesis Representation

假设函数
因为对于一个逻辑分类问题来说,我们要得到的
一定是1,0
而以前的可能得到一个很大的数
所以我们要选择一个新的假设函数
如下所示
利用对数的性质,让其值在于0,1之间
这里写图片描述
hθ(x) will give us the probability that our output is 1.
如果大于0.5我们就认为它是一个1,反而就是0
hθ(x)≥0.5→y=1
hθ(x)<0.5→y=0
g(z)≥0.5
when z≥0
θTx≥0
The decision boundary is the line that separates the area where y = 0 and where y = 1. It is created by our hypothesis function.

Cost Function

假设函数变了,我们的cost Function一定也要改变
比较简单的说,对于我们的h(x)是一个指数形式的函数
如果我们给和以前一样算J(x)的时候用平方,那就会得到一个多凸函数
导致我们得到局部最优解,而不是全局的min
所以要对其cost function 进行求log

更简化的形式
这里写图片描述

Gradient Descent

对于这部分来说,我们对新的代价函数进行求导,会发现
我们得到的跟那个线性回归的一模一样
这里写图片描述

而且特征缩放也适用

Multiclass Classification

一对多
训练的时候我们先把一个当成一类,然后把其他所有的并为一类
然后就会得到一个h1,然后再重复得到h2,。。。。
最后会得到一个向量表示,是个个分类的概率,概率最大的那个就是我们要求的

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值