机器学习笔记 - Logistic Regression

线性回归的模型为

z=wTx+b

考虑二分法任务, 其输出标记 y{0,1} , 于是需将实值 z 转为0/1, 这里用了Sigmoid 函数
y=11ez


y=11e(wTx+b)

上式可以变化为
lny1y=wTx+b

若将 y 视为x是正例的可能性,
ln{y=1|x}{y=0|x}=wTx+b

给定数据集 {(xi,yi)}mi=1 , 回归模型最大对数似然(loglikelihood)为:
l(w,b)=i=1mlnp(yi|xi;w,b)

β=(w,b) , x^=(x;1) , 则 wT+b=βTx^ ,
再令
p1(x^;β)=p(y=1|x^;β)

p0(x^;β)=p(y=0|x^;β)


p(yi|xi,w,b)=yip1(x^;β)+(1yi)p0(x^;β)

然后可以梯度下降法,或者牛顿法求的棋最优解.
β=argmin(l(β))

这里是一个简单的例子

Reference

  1. 机器学习 - 周志华 清华大学出版社
  2. Machine Learning in Action - Peter Harington
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值