机器学习算法之:指数族分布与广义线性模型

本文介绍了指数族分布,包括伯努利分布和高斯分布的指数族形式,并详细阐述了广义线性模型(GLM)的概念。通过三个基本假设,展示了如何将逻辑回归和最小二乘法纳入GLM框架,解释了逻辑回归的预测概率公式来源。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

参考NG的lecture note1 part3
本文将首先简单介绍指数族分布,然后介绍一下广义线性模型(generalized linear model, GLM), 最后解释了为什么逻辑回归(logistic regression, LR) 是广义线性模型的一种。

指数族分布

指数族分布 (The exponential family distribution),区别于指数分布(exponential distribution)。在概率统计中,若某概率分布满足下式,我们就称之属于指数族分布。
p(y;η)=b(y)exp⁡(ηTT(y)−a(η))p(y;\eta)=b(y)\exp(\eta^T T(y)-a(\eta))p(y;η)=b(y)exp(ηTT(y)a(η))

其中η\etaη是natural parameter, T(y)T(y)T(y)是充分统计量, exp⁡−a(η))\exp^{-a(\eta))}expa(η))是起到归一化作用。 确定了T,a,bT,a,bT,a,b,我们就可以确定某个参数为η\etaη的指数族分布.
统计中很多熟悉的概率分布都是指数族分布的特定形式,如伯努利分布,高斯分布,多项分布(multionmal), 泊松分布等。下面介绍其中的伯努利分布和高斯分布。

  • 伯努利分布
    p(y;ϕ)=ϕy(1−ϕ)1−y=exp[ylog⁡ϕ+(1−y)log⁡(1−ϕ)]=exp[ylog⁡ϕ1−ϕ+log(1−ϕ)]p(y;\phi)=\phi^y (1-\phi)^{1-y} \\=exp[y\log\phi+(1-y)\log(1-\phi)] \\=exp[y\log \frac{\phi}{1-\phi}+log(1-\phi)]p(y;ϕ)=ϕy(1ϕ)1y=exp[ylogϕ+(1y)log(1ϕ)]=exp[ylog1ϕϕ+l
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值