机器学习实战(四)--逻辑斯特回归

本文深入探讨逻辑斯特回归,从sigmoid函数的概念到在分类问题中的应用。介绍了分类的基本思想,通过梯度上升和随机梯度上升算法优化权重,并讲解了最大似然估计在参数估计中的作用。此外,讨论了算法的实现细节,包括参数初始化的重要性。

一.sigmoid函数

1.函数思想

当我们想生成一个函数,通过这个函数我们给定特征值,就能预测输出。对二分类问题,很容易我们会想到阶跃函数(函数输出0或1)。但这种阶跃性很多时候处理起来都是困难的,自然地,我们想要一个平滑过渡版的阶跃函数。这种数学上更易于处理的过渡更平滑的函数就是sigmoid函数。

2.函数形式

可以看到下面那张图已经非常接近阶跃函数了,只不过中间的过渡是平滑的。

二.分类问题

1.基本思想

对于给定的特征x1,x2...xn,令

(可以用向量符号表示成z=wTx的形式)。

对利用二分类问题,利用sigmiod函数求值,函数值大于0.5判定为A类,小于0.5则判定为B类。其实,我们可以将函数值看成一个概率估计。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值