22、决策与贝叶斯网络学习:从连续区间到多元离散模型

决策与贝叶斯网络学习:从连续区间到多元离散模型

在实际的决策和模型学习中,我们常常会遇到各种复杂的情况。下面将详细探讨基于连续区间的决策、贝叶斯方法与 ML - II、信念网络的最大似然训练以及贝叶斯信念网络训练等内容。

1. 基于连续区间的决策

在决策过程中,连续变量的使用十分常见。我们通过一个简单的抛硬币实验来说明。抛硬币实验结果为正面($N_H$)出现 2 次,反面($N_T$)出现 8 次。现在需要做出决策:若能正确猜出硬币是偏向正面还是反面,可赢得 10 美元;若猜错,则会损失 100 万美元。

为了做出决策,我们引入两个量,$\theta$ 表示我们的猜测,$\theta_0$ 表示真实情况。说硬币更可能出现正面的效用为:
$U(\theta > 0.5, \theta_0 > 0.5)p(\theta_0 > 0.5|V) + U(\theta > 0.5, \theta_0 < 0.5)p(\theta_0 < 0.5|V)$

其中,$p(\theta_0 < 0.5|V)$ 可通过以下步骤计算:
1. 首先,$p(\theta_0 < 0.5|V) = \int_{0}^{0.5} p(\theta_0|V)d\theta_0$
2. 然后,$p(\theta_0 < 0.5|V) = \frac{1}{B(\alpha + N_H, \beta + N_T)} \int_{0}^{0.5} \theta^{\alpha + N_H - 1} (1 - \theta)^{\beta + N_T - 1} d\theta$
3. 令其等于 $I_{0.

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值