神经网络中的概率推理与神经符号学习系统
1. 神经网络中的概率推理
在神经网络中进行概率推理时,模态程序的不动点语义得到了扩展,以处理对 (ω, t),而非仅处理 ω。这一扩展与之前的定理有所不同,它允许将文字 Li 重命名为 pi(α) = x。
以蒙提霍尔谜题为例,我们可以更清晰地理解这种概率推理。假设你参加一个游戏节目,有三扇门可供选择。其中一扇门后面是一辆汽车,另外两扇门后面是山羊。你选择了门 1,在打开门 1 之前,知道每扇门后面是什么的主持人蒙提霍尔打开了门 2,发现门 2 后面是一只山羊。然后他问你是否还想选择门 1 后面的东西,还是改选门 3 后面的东西。
这个谜题可以分为三个时间点:
- t0 时刻 :两扇门后是山羊,一扇门后是汽车。
- t1 时刻 :你随机选择一扇门,蒙提霍尔打开一扇后面是山羊的门。
- t2 时刻 :你可以选择是否更换你选择的门,不同的选择会有不同的赢得汽车的概率。
具体概率如下:
|时间点|门 1 概率|门 2 概率|门 3 概率|
| ---- | ---- | ---- | ---- |
|t0、t1、t2|1/3| - | - |
|t0、t1| - |1/3|1/3|
|t2| - |0|2/3|
可以用以下规则来表示:
- tk : p(door1) = 1/3, k ∈{0,1,2};
- tj : p(door2) = 1/3, j ∈{0,1};
- tj : p
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



