一阶概率语言:探索未知领域
1. 马尔可夫网络参数化与局限性
在某些情况下,学习算法可能会得到如下网络的参数化结果。例如对于特定网络,有如下参数设置:
- 对于所有的 $r$:
| Brilliant(r) | True | False |
| ---- | ---- | ---- |
| | 1 | 1 |
- 对于所有满足 $PrimaryAuthor(p) = r$ 的 $(r, p)$:
| Accepted(p) | Brilliant(r) True | Brilliant(r) False |
| ---- | ---- | ---- |
| True | 0.16 | 0.04 |
| False | 0.24 | 0.56 |
这些潜在模板中参数的含义不再那么明显。虽然 $Brilliant(r)$ 的势都是 1,但图中 $Brilliant(Res1)$ 的边际分布最终为 $(0.2, 0.8)$。这是因为事件 $Brilliant(Res1) = True$ 在关于 ${Brilliant(Res1), Accepted(Pub1)}$ 的势中总权重为 $0.16 + 0.04 = 0.2$。势之间的这种耦合意味着马尔可夫网络的最大似然参数不能用简单公式找到,必须使用基于梯度的优化算法。
当将上述无向概率模型应用于双论文网络时,对于满足 $PrimaryAuthor(p) = r$ 的 $(r, p)$ 模板会应用两次,$Brilliant(Res1)$ 的边际分布最终与 $(0.2^2, 0.8^2)$ 成比例,归一化后约为 $(0.06, 0.94)$。如果研究人员
超级会员免费看
订阅专栏 解锁全文
614

被折叠的 条评论
为什么被折叠?



