手搓GPT系列之 - 如何理解logit函数

文章解释了logit公式的起源和含义,它表示的是概率的对数odds的取值。首先介绍了odd,即事件发生的概率与不发生的概率之比,然后展示了在逻辑回归(LR)模型中,如何通过logit转换将概率转化为可以处理的数值。通过这种转换,logit函数成为了神经网络中sigmoid激活函数的前身。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

NLP还存不存在我不知道,但是数学之美一直都在。之前的文章中有提到logit公式为:w^Tx+b。如何理解这个logit公式?为什么叫这个名字呢?有些人说logit公式就是神经网络中未经过连接函数(一般为sigmoid函数)处理过的函数。这些说法也不错,不过还没到点上,本文将为机器学习的爱好者们说明一下为什么这个公式叫logit公式。

1 先理解一个基础概念:odd

中文直译是”可能性,机率”,在数学上有更加明确的意义,即一个事情发生的概率和不发生的概率之比。假设某件事x发生的概率为p(x),那么:

odd(x)=\frac{p(x)}{1-p(x)}

由于p(x)\in[0,1],所以odd(x)\in[0,+\inf)

2 odd函数图像

import numpy as np
import math
import matplotlib.pyplot as plt

def odd(x):
    return x / (1 - x)

x=np.arange(0,1,0.001)
y1=[odd(a) for a in x]

plot1=plt.plot(x,y1,'*',label='odd(x)')

plt.xlabel('X axis')
plt.ylabel('Y axis')
plt.title('Odd Function')
plt.legend(loc=4)
plt.grid(True)
plt.show()

3 LR模型中的logit

我们拿LR模型的似然函数:

p(x)=\frac{1}{1+e^{-w^Tx+b}}

我们做一些转换:

 1-p(x)=\frac{e^{-w^Tx+b}}{1+e^{-w^Tx+b}}

 \frac{p(x)}{1-p(x)}=e^{w^Tx+b}

w^Tx+b=\log{\frac{p(x)}{1-p(x)}}=\log odd(x)

通过上边的转化,我们可以看到,w^Tx+b等于odd值取log,因此被称为logit函数,也可以理解为log它,它就是odd值。

4 logit函数图像

import numpy as np
import math
import matplotlib.pyplot as plt

x=np.arange(0.0001,1,0.0001)
odd=[a/(1-a) for a in x]
y1=[math.log(a,math.e) for a in odd]


plot1=plt.plot(x,y1,'*',label='logit(x)')


plt.xlabel('X axis')
plt.ylabel('Y axis')
plt.title('Logit Function')
plt.legend(loc=4)
plt.grid(True)
plt.show()

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值