机器学习算法(二)逻辑回归 (Logistic Regression)

本文详细介绍了逻辑回归的概念,包括其作为分类算法的工作原理、sigmoid函数的使用以及优化方法,如梯度上升法,旨在寻找最佳回归系数以进行有效的分类预测。

逻辑回归属于有监督学习的分类算法

1、概要介绍

(1)回归:假设有一些数据点,我们用一条直线对这些点进行拟合,这个拟合的过程就是回归。

拟合:把平面上的一些点用一条光滑的曲线连起来。

(2)逻辑回归

通过将数据拟合进一个逻辑函数来预估一个事件出现的概率(输出值在0~1之间),P>0.5的数据被分为1类,P<0.5的数据被分为0类。

2.原理说明

(1)Logistic回归的主要思想:

根据现有的数据,对分类边界线建立回归公式,以此进行分类。

(2)Logistic回归的过程

a.收集数据

b.分析数据

c.训练算法,为找到最佳回归系数

d.测试算法

3、算法推导

逻辑回归的最终结果是一组特征的系数:z=w_{0}x_{0}+w_{1}x_{1}+......+w_{n}x_{n},其中w就是系数。

(1)回归函数

sigmoid函数: 

  

这里的x就是前面的z

它对x的导数:

值域在0~1之间

(2)为实现Logistic回归分类器,可以在每个特征上都乘以一个回归系数,然后将所有的结果加起来,将总和代入到sigmoid函数中,即可得到一个0~1之间的值,确定分类器后,要确定最佳回归系数(weight)。sigmoid函数的输入z=w_{0}x_{0}+w_{1}x_{1}+......+w_{n}x_{n}采取向量的写法上式记为z=\omega ^{T}x,向量x为分类器输入数据,向量w就是要找的最佳回归系数。

注:g(z)的参数z是一组列向量,故实现g(z)时要支持列项作为参数,并返回列向量。

(3)优化方法——寻找最佳回归系数

1)梯度上升和梯度下降法

梯度上升求最大值,梯度下降求最小值

要找到某函数的最大值,最好的方法是沿着该函数的梯度方向寻找,梯度(\bigtriangledown),f(x,y)的梯度

(4)训练算法(目的:使用优化算法找到最佳回归系数)

1)在数据集通过梯度上升法找到最佳回归系数,也就是拟合出Logistic回归模型的最佳参数

梯度上升伪代码:

每个回归系数初始化为1:

重复R次:

              计算整个数据集的梯度

              使用alpha \timesgradient更新回归系数的向量

返回回归系数

alpha是向目标移动的步长

2)构造预测函数

判定边界()对不同类别的数据进行分割的边界):z= \theta ^{T}x = \theta _{0}x_{0}+\theta _{1}x_{1}+...+\theta _{n}x_{n}

最佳参数是\theta _{i}

预测函数:h_{\theta }(x) =S(\theta ^{T}x)

函数h_{\theta }(x)的值就是结果为类别1的概率。

 

 

 

 

 

 

 

 

 

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值