逻辑回归算法

逻辑回归介绍

逻辑回归(Logistic Regression是用于处理因变量为分类变量的回归问题,常见的是二分类或二项分布问题,也可以处理多分类问题,它实际上是属于一种分类方法。 如给的一封邮件,判断是不是垃圾邮件。逻辑回归一般是提供样本和已知模型求回归参数。

 

逻辑回归算法模型以及模型推导

将任意的输入映射到了[0,1]区间,我们在线性回归中可以得到一个预测值,再将该值映射到Sigmoid 函数中,这样就由求值转换成了求概率的问题。

Sigmoid 函数:

预测函数:


转换为二分类任务:

整合后函数:

所有的样本函数相乘得似然函数:

转化为对数似然函数:

此时梯度上升求最大值,引入J(\Theta)= 1/ml(\Theta),变成梯度下降任务,也即是转换为损失函数,函数值越小,模型就越好。

对函数求偏导得到更新方向:

得到参数更新函数:

多分类的softmax:

作用

一般是解决二分类问题,一般判断某个样本事件所属分类的概率。

相关定义

最大似然估计

就是在假定整体模型分布已知,利用已知的样本结果信息,反推最具有可能(最大概率)导致这些样本结果出现的模型参数值。换句话说,最大似然估计提供了一种给定观察数据来评估模型参数的方法,即模型一定,参数未知。

损失函数

1. 平方损失函数(quadraticloss function)

 L(Y,f(X))=(Y−f(X))^2

2. 对数损失函数(logarithmicloss function) 或对数似然损失函数(log-likelihood loss function)

 L(Y,P(Y|X))=−logP(Y|X)

 逻辑回归中,采用的则是对数损失函数,损失函数越小,模型就越好,。

机器学习模型

模型(model)、目标(cost function)、优化算法

Step1:对于一个问题,需要首先建立一个模型,如回归或分类模型;

step2:通过最小分类误差、最大似然或最大后验概率建立模型的代价函数;

step3:最优化问题求解

a.如果优化函数存在解析解,则可以通过一般的求值方法-对代价函数求导,找到倒数为0的点,即是最大值或者最小孩子;

b.如果上述方法求优化函数导数比较复杂,可利用迭代算法也求解。v

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值