递归函数学习中的非构造性数量及k-means++算法实例分析
在计算机科学的研究中,递归函数学习和聚类算法是两个重要的领域。本文将探讨递归函数学习中的非构造性数量问题,以及k-means++算法的一个不良实例。
递归函数学习中的非构造性数量
在递归函数的归纳推理中,我们提出了一个包含一定非构造性的模型。在这个模型中,解决学习问题所需的非构造性数量被用作对问题难度的定量刻画。
我们研究了在各种假设下学习整个递归函数类R的问题。这些假设从极限学习到有限和最小识别不等。对于极限学习而言,学习R所需的非构造性数量可以非常小,并且不存在可以用可计算方式描述的最小数量。但与之形成鲜明对比的是,在极限情况下对类R进行ϕ - 最小识别需要2·log n的非构造性,而对R进行ϕ - 最小有限识别则需要n + 1的非构造性。这表明每增加一个假设,所需的非构造性数量就会呈指数级增加。不过,这些结果是否可以改进仍有待进一步研究。
此外,我们还研究了对任何递归函数的索引族进行ϕ - 最小有限识别所需的非构造性数量。在这种情况下,我们得到了所需非构造性数量的上限为2·log n,并证明了这个数量不能大幅改进。但目前,我们仅证明了其中一种情况的下限,对于其他情况的下限证明仍是一个开放问题。
下面我们通过一个具体的证明来说明相关结论。设ℓ∈N+是使得策略Sv在两个连续输入上输出相同假设的最小数,即Sv(i, w) ≠ · · · ≠ Sv(iℓ, w) = Sv(iℓ+1, w)。这样的ℓ必然存在,否则Sv既不能有限识别ψ2i也不能有限识别ψ2i+1。
- 如果Sv(iℓ, w) ∉ {2i, 2i + 1},由于ψ2i和ψ2i+1是U中初始段所有值都等于i的仅
超级会员免费看
订阅专栏 解锁全文
639

被折叠的 条评论
为什么被折叠?



