子句学习中受限分支的局限性
1. 子句学习证明相关概念
1.1 子句学习证明定义
子句学习证明(CL 证明)是在某种学习方案下的 CL 搜索树,证明的长度是分支决策的数量。证明系统 CL 由任何学习方案下的 CL 证明组成。
1.2 子句学习的优势
将子句学习应用到基于 DPLL 的算法中,其实践效率的提升是有目共睹的。研究表明,CL 能提供比 T - RES 指数级更短的证明,所以 DPLL 无法多项式模拟 CL。
1.3 典型子句学习方案
典型的子句学习方案基于唯一蕴含点(UIPs)。冲突图的 UIP 是最大决策层 d 上的节点 u,从决策层 d 的决策变量 x 到 Λ 的所有路径都经过 u。可以选择一个冲突割,使得冲突子句中来自最大决策层的唯一变量是 UIP。UIP 学习支持冲突驱动的回溯(回跳),即 DPLL 回溯到冲突子句中除 UIP 之外变量的最大决策层。流行的 UIP 学习方案是 1 - UIP 方案,它选择最接近 Λ 的 UIP。
1.4 重启机制
现代求解器常采用重启机制。重启时,之前的决策和单位传播被撤销,搜索从决策层 0 重新开始,已学习到的子句在重启后仍然保留。直观上,重启有助于摆脱难以证明的子公式。当搜索中允许任意次数的重启时,CL 具有无限重启能力。
1.5 CL– 证明系统
Beame 等人定义了 CL–,它允许在 DPLL 当前阶段已设置的文字上进行分支。虽然在实践中不常见,但这能按需创建即时冲突。RES 和具有无限重启和任何非冗余学习方案的 CL– 是多项式等价的。
超级会员免费看
订阅专栏 解锁全文
822

被折叠的 条评论
为什么被折叠?



