硬件感知概率电路:优化与实验探索
1. 概率句子决策图(PSDDs)基础
PSDDs 是句子决策图(SDDs)的概率扩展,SDDs 以逻辑电路的形式表示布尔函数。PSDDs 的内部节点在与门(相当于乘积节点,有两个输入)和或门(相当于求和节点,有任意数量的输入)之间交替,根节点必须是或节点,每个叶节点对变量 X 的分布进行编码。或门与其与门输入的组合称为决策节点,与门的左输入称为主项(p),右输入称为子项(s)。决策节点的每条边都标注有参数 θ1, …, θn,且满足 ∑iθi = 1。
PSDDs 受到三个结构约束:可分解性、平滑性和确定性。可分解性由 vtree 强制执行,vtree 是一种二叉树,其叶子节点是随机变量,它决定了变量在 PSDD 中的主项和子项的排列方式。确定性意味着每个决策节点的输入(子节点)中只有一个可以为真。
每个 PSDD 节点 q 表示一个概率分布。终端节点编码单变量分布。决策节点在针对 vtree 节点进行归一化后,其中左子树为 X,右子树为 Y,编码了以下关于 XY 的分布:
[Pr_q(XY) = \sum_{i} \theta_i Pr_{p_i}(X) Pr_{s_i}(Y)]
在给定主项基 [q] 的情况下,主项和子项变量在 PSDD 节点 q 处是独立的,这体现了上下文特定独立性。PSDDs 的结构约束旨在利用这种独立性,从而实现可以在多项式时间内回答许多复杂查询的表示,这在贝叶斯网络的推理中是无法保证的。
2. LearnPSDD 算法
LearnPSDD 算法通过最大化给定可用数据的对数似然来生成式地学习 PSDD。该算法首先学习一个 vtree,以最小化所有
硬件感知概率电路优化研究
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



