LogLoss的公式演化

LogLoss主要应用于逻辑回归,处理离散因变量如二分类问题。它通过逻辑函数将结果映射到[0,1]区间,表示DV为1的概率。LogLoss公式用于衡量预测模型与真实模型的匹配程度,作为损失函数用于模型训练。在二分类中,当y为0或1时,LogLoss分别计算不同情况下的概率误差。" 112944911,10545168,Ubuntu18.04下编译安装VASP.5.4.1:gfortran与MKL两种方法详解,"['Ubuntu安装', 'VASP', '科学计算', '软件编译']

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  1. LogLoss一般应用于logistic regression[logit regression,logit model],而logistic regression模型的因变量是categorical,比如二分类的0和1。多分类的模型就是mutinomial logistic regression。

    1. 在logistic regression里面有一个logistic function(注意区分logit function),用与将结果从[-R,+R]映射到[0,1]。
      σ(t)=11+et
    2. 这里的σ(t)是对DV(dependent variable)的一种概率预测,而且是对DV=1时的预测。因此得到另外一个概率函数(hθ(x)经过输入x由hidden layer输出的结果):
      Pr(y|x;θ)=hθ(x)y(1hθ(x))(1y)
      1. 当y(DV)=0时,由于hθ(x)是对DV=1时的概率,故DV=1的概率是0,hθ(x)=0,则Pr(0|x;θ)=10=1
        Pr(0|x;θ)=1hθ(x)
      2. 当y=1时 ,即与DV=1的概率同分布
        Pr(1|x;θ)=hθ(x)
  2. 对预测的概率函数进行极大似然法计算,就可以得到预测模型和真实模型的匹配程度,可以作为loss函数进行训练:
    N1logL(θ|x)=N1Ni=1logPr(yi|xi;θ)=N1Ni=1yloghθ(x)+(1y)log(1hθ(x))

  3. 下面是logLoss的计算

import numpy as np 
def log_loss(true_y,pred_h):
    return -np.mean(true_y*np.log(pred_h)+(1-true_y)*np.log(1-pred_h))
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值