(斯坦福机器学习课程笔记)用广义线性模型推导逻辑回归模型

本文从伯努利分布出发,详细推导了逻辑回归的数学公式,包括似然函数、代价函数及迭代更新公式。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

广义线性模型的公式是

P(y;η)=b(y)exp(ηTT(y)a(η))

其中 η 是自然参数, η=θTx T(y) 是充分统计量。 P(y;η) 服从指数分布。
============================================================
推导逻辑回归公式
逻辑回归公式是从伯努利分布来的
P(y;ϕ)=ϕy(1ϕ)1y=exp(yln(ϕ1ϕ)+ln(1ϕ))

其中, b(y)=1 ηT=lnϕ1ϕ T(y)=y a(η)=ln(1ϕ)
在此,由于 η=θTx=lnϕ1ϕ ,可以得到 ϕ=11+eθTx ,也就是sigmoid函数。可以得到
P(y;ϕ)=P(y|x;θ)=11+eθTxy111+eθTxy

取似然函数 L(θ)
L(θ)=i=1mP(yi|xi;θ)

取似然对数
l(θ)=i=1m(yilog11+eθTxi+(1yi)(log(111+eθTxi)))

l(θ) 就是逻辑回归的代价函数。
有时喜欢在 l(θ) 前面乘以- 1m ,得到的代价函数是

l(θ)=1mi=1m(yilog11+eθTxi+(1yi)(log(111+eθTxi)))

迭代公式是
θjn+1=θjna1mi=1m(11+eθTxiyi)xji

其中 j 是分量编号

=============================似然==========================
对似然函数的理解不足,导致以为理解了,后来因为概念模糊,又回头看。来来回回好几次。这里写下来备忘。
取似然函数L(θ)=mi=1P(yi|xi;θ)这一步的来由是:

根据似然函数的定义,似然函数是在参数 θ 的条件下(并不把 θ 看作变量),事件 x 发生的概率:记L(θ)=P(x;θ),若 x{x1,x2,x3xm} ,则 L(θ)=i=1mP(xi;θ)

到推导过程中来,事件是样本 {xi,yi} ,即以 θ 为参数,已知输入 xi 时,输出 yi 的几率。
也许理解仍然被不深刻,待续。。。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值