概念学习:假设空间与路径探索
1. 最小泛化泛化(Least General Generalisation)
在概念学习中,我们常常会遇到需要从一组实例中找到合适概念的问题。当排除那些不能覆盖示例 4.1 中至少一个实例的概念后,假设空间会缩小到 32 个合取概念。若要求假设能覆盖所有三个实例,那么概念数量会进一步减少到四个,其中最不一般的那个被称为最小泛化泛化(LGG)。
算法 4.1 详细描述了寻找一组实例的最小泛化泛化的过程:
Algorithm 4.1: LGG-Set(D) – 寻找一组实例的最小泛化泛化
Input: 数据 D
Output: 逻辑表达式 H
1. x ← 从 D 中取出第一个实例;
2. H ← x;
3. while 还有实例剩余 do
4. x ← 从 D 中取出下一个实例;
5. H ← LGG(H, x); // 例如,LGG-Conj (Alg. 4.2) 或 LGG-Conj-ID (Alg. 4.3)
6. end
7. return H
直观来看,两个实例的 LGG 是假设空间中从这两个实例向上的路径相交的最近概念。许多逻辑假设空间具有一个特殊性质,即这个相交点是唯一的。这种假设空间形成了一个格(lattice),其中每两个元素都有最小上界(lub)和最大下界(glb)。因此,一组实例的 LGG 恰好是这些实例在该格中的最小上界,同时也是所有泛化集合的最大下界。从这个精确的意义上说,LGG 是我们能从数据中学到的最保守的泛化。
如果我们想更具冒险精神,可以选择一些更一般的假设,如“Gills =
超级会员免费看
订阅专栏 解锁全文
2806

被折叠的 条评论
为什么被折叠?



