多元最大似然估计函数

本文介绍了多元最大似然估计函数在概率论中的应用,特别是在估计多个未知参数的场景中。通过举例说明如何利用最大似然估计求解正态分布参数μ和σ²,并通过求对数导数简化计算过程。

多元最大似然估计函数

@(概率论)

最大似然函数用于估计一个未知参数的场景居多,但实际上也可以用于多个未知参数的估计。

δδθiL=0

或者令:

δδθilnL=0

举个例子联系一下:

XN(μ,σ2),μ,σ2为未知参数,x1,x2,...,xn来自X的一个样本值,求μ,σ2

### 多元逻辑斯蒂回归的最大似然估计 对于多元逻辑斯蒂回归模型,目标是从给定的数据集中找到最佳参数向量 \(\theta\)。这通常通过最大化似然函数实现。 #### 1. 模型定义 假设有一个数据集 \(D=\{(x^{(i)}, y^{(i)})\}_{i=1}^m\) ,其中 \(x^{(i)} \in \mathbb{R}^{n}\) 是特征向量,\(y^{(i)} \in \{0, 1, ..., K-1\}\) 表示类别标签,共有 \(K\) 类。为了简化表示,在处理多类问题时引入 one-vs-rest 的策略,即将每一对 (样本, 类别) 转化为二分类问题[^2]。 #### 2. 条件概率分布 对于每个观测值 \(x^{(i)}\) 和其对应的类别 \(k\),条件概率可由下式给出: \[ P(y=k|x;\theta)=h_\theta(x)_k = \frac{\exp (\theta_k^\top x)}{\sum_{j=0}^{K-1}\exp (\theta_j^\top x)} \] 这里 \(\theta_0,\ldots ,\theta_{K-1}\) 分别代表不同类别的权重向量[^3]。 #### 3. 构建似然函数 考虑整个训练集上的联合概率分布,则有: \[ L(\Theta|X,Y)=\prod _{{i=1}}^{m}{P}(y^{(i)}|x^{(i)};\Theta ) \] 取自然对数得到对数似然函数: \[ l(\Theta | X, Y) = \sum_{i=1}^{m} \log(P(y^{(i)}|x^{(i)}; \Theta)) \] 进一步展开得: \[ l(\Theta | X, Y) = \sum_{i=1}^{m} \left[y^{(i)}\cdot \log(h_\theta(x^{(i)}))+ (1-y^{(i)})\cdot \log(1-h_\theta(x^{(i)}))\right]\quad \text{(针对二分类情况)} \] 但对于多分类情形,上述公式变为: \[ l(\Theta | X, Y) = \sum_{i=1}^{m} \sum_{c=1}^{K}[I\{y^{(i)}=c\}\cdot \log(p(c|x^{(i)};\Theta))] \] 其中 \(p(c|x^{(i)};\Theta)\) 即前面提到的 softmax 函数计算的结果,而指示函数 \(I\{\cdot\}\) 当且仅当括号内的命题成立时返回1,否则返回0[^4]。 #### 4. 参数优化 为了获得最优解 \(\hat{\Theta}\),需要使上式的期望达到最大值。由于直接求导并令导数值等于零难以解析求解,因此常采用迭代方法如梯度上升法或牛顿法来进行最优化操作。具体来说就是不断更新当前估计直到收敛为止。 ```python import numpy as np def sigmoid(z): return 1 / (1 + np.exp(-z)) def compute_gradient(X, y, theta): m = len(y) predictions = sigmoid(np.dot(X, theta)) error = predictions - y grad = (1/m) * np.dot(X.T, error) return grad # 这里省略了完整的梯度下降或其他优化算法的具体实现细节... ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值