从正数据和负反例学习及单边随机上下文语法研究综述
1. 自动NCEx学习
在语言学习领域,自动可学习性模型是一个重要的研究方向。对于从完整正数据学习的自动可学习性模型,其要求学习者的输入/输出行为能被有限自动机识别。这里,语言被视为某个字母表上的字符串集合,记忆和猜想也都是字母表上的字符串。具体来说,如果将学习者的输入和输出并行给出(每次一个字符,若输入/输出长度不同,用字符#填充较短的那个),当且仅当学习者在该输入下产生相应输出时,自动机才接受它。
自动类语言学习有一些重要的成果和概念。例如,之前的研究展示了一些可从完整正数据学习的自动类语言的例子,但并非所有自动类都能从完整正数据中学习。为了学习所有自动类,需要额外信息,即有限数量的过泛猜想的反例,且学习者可以是迭代的。有定理表明,每个自动类都属于AutoNCIt。不过,该定理证明中学习者的猜想可能并不总是与到目前为止看到的输入一致,能否实现这种一致性仍是一个开放问题。若AutoNCIt学习者始终能收到最小负反例,则可以实现这种一致性。
此外,存在一些自动类,即使是非自动的BNCEx学习者也无法学习。但对于仅由无限语言组成的自动类,在反例大小有界的情况下,记忆受目前所见最长正输入数据大小限制的AutoNCEx学习者可以学习它们,AutoNCIt学习者也有类似结果。还有一些自动类,使用有界负反例且记忆受当前假设大小限制(即只能存储最后一个假设)时无法进行AutoNCEx学习,但即使没有负反例,记忆受目前所见最长正数据大小限制时也能自动学习。
以下是这些内容的关系流程图:
graph LR
A[自动可学习性模型] --&
超级会员免费看
订阅专栏 解锁全文
1970

被折叠的 条评论
为什么被折叠?



