负对数似然(negative log-likelihood)

本文介绍了似然函数的概念及其在机器学习中的应用,包括离散和连续概率分布下的定义,并详细解释了最大似然估计、对数似然及负对数似然的计算方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

negative log likelihood

似然函数(likelihood function)

Overview

在机器学习中,似然函数是一种关于模型中参数的函数。“似然性(likelihood)”和"概率(probability)"词意相似,但在统计学中它们有着完全不同的含义:概率用于在已知参数的情况下,预测接下来的观测结果;似然性用于根据一些观测结果,估计给定模型的参数可能值。

Probability is used to describe the plausibility of some data, given a value for the parameter. Likelihood is used to describe the plausibility of a value for the parameter, given some data.

​ —from wikipedia [ 3 ] ^[3] [3]

其数学形式表示为:

假设 X X X是观测结果序列,它的概率分布 f x f_{x} fx依赖于参数 θ \theta θ,则似然函数表示为

L ( θ ∣ x ) = f θ ( x ) = P θ ( X = x ) L(\theta|x)=f_{\theta}(x)=P_{\theta}(X=x) L(θx)=fθ(

### log-likelihood 的作用及意义 #### 一、log-likelihood 的定义及其在统计学中的意义 在统计学中,函数是一种关于模型参数的函数。它描述了在一组观察到的数据下,不同参数取值的可能大小[^3]。具体来说,“”表示某一特定参数值能够解释所观察到数据的概率有多大。 对于最大似然估计 (Maximum Likelihood Estimation, MLE),目标是最小化负对数似然Negative Log-Likelihood, NLL)。这是因为最大化原始函数可能会涉及复杂的乘法运算,而通过对数转换将其转化为加法规则后更易于处理。因此,在实践中通常会最小化负对数似然来间接实现最大化的目的。 #### 二、log-likelihood 越大越好的原因分析 1. **从理论角度理解** 当我们说希望 `log-likelihood` 值尽可能高时,实际上是在寻找那些最有可能生成当前训练集中样本分布的一组参数配置。较高的 `log-likelihood` 表明我们的假设模型更加贴近真实的潜在机制,即这些参数使得观测事件发生的可能更大。 2. **数值稳定考虑** 在实际应用过程中由于直接操作极大值可能导致溢出等问题,所以转而采用其自对数形式——这就是所谓的“Logarithmic Transformation”。这种变换不仅简化了计算过程还提高了算法运行效率并增强了系统的鲁棒和可靠[^1]。 3. **优化目标设定** 很多时候我们会把问题建模成一个损失函数的形式来进行求解,其中就包含了上述提到过的交叉熵损失(Cross Entropy Loss)或者说是它的特殊版本之一—Binary CrossEntropy(BCE) 。而对于分类任务而言,BCE本质上就是基于Softmax激活后的输出再套上NLL公式得到的结果。由此可见两者之间存在着密切联系:都是为了找到那个能让预测结果接近实际情况的最佳权重组合! #### 三、代码示例展示如何利用Python库Sklearn计算multi-class log-loss 下面给出了一段简单的Python脚本用来演示前面讨论的内容是如何被应用于现实场景当中去解决具体的业务需求: ```python from sklearn.metrics import log_loss y_true = [0, 2, 1, 2] y_pred = [ [0.9 , 0.05, 0.05], [0.1 , 0.1 , 0.8 ], [0.2 , 0.7 , 0.1 ], [0.05, 0.1 , 0.85] ] loss = log_loss(y_true, y_pred) print(f"Multi-class Log-Likelihood Loss: {loss}") ``` 此程序片段展示了通过调用Scikit Learn提供的接口快速便捷地获取指定条件下对应的评估指标得分情况的方法论思路。 --- ###
评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值