通过任务排练和选择性知识迁移实现终身学习
在机器学习领域,传统的单任务学习(STL)方法主要聚焦于从一组有监督的训练示例中归纳出单个任务的假设。然而,人类学习的一个关键特征是个体在一生中会面临一系列的学习问题,并能将先前学到的知识迁移到新任务中,以促进新任务的学习。终身学习作为机器学习研究的一个相对较新的领域,关注的是学习的持久性和累积性。
1. 背景知识
1.1 基于知识的归纳学习
学习系统的假设空间除了要与训练示例保持一致外,还受到归纳偏置的约束。归纳偏置可以理解为学习系统对一个假设的偏好,例如奥卡姆剃刀原理表明系统更倾向于简单的假设而非复杂的假设。归纳偏置对于从有限数量的示例中开发出具有良好泛化能力的假设至关重要。理想情况下,终身学习系统应能根据正在学习的任务选择合适的归纳偏置。其中一种归纳偏置是任务领域的知识,但如何保留和使用领域知识作为归纳偏置的来源,仍是机器学习中尚未解决的问题。
基于知识的归纳学习是一种依赖问题领域的先验知识来缩小必须搜索的假设空间的学习方法。领域知识是一个从先前学习的任务中积累信息的数据库,其目的是对纯归纳学习系统产生积极的偏置,使其在更短的时间内训练,并使用更少的训练示例产生更准确的假设。
当使用任务领域知识对归纳学习器进行偏置时,会发生从一个或多个源任务(或次要任务)到目标任务(或主要任务)的知识迁移。因此,选择合适的偏置问题就转化为选择合适的任务知识进行迁移的问题。知识迁移是终身学习的一个重要方面,而选择合适的相关知识是使用先验知识时的一个重大问题。
1.2 表征迁移与功能迁移
任务知识迁移有两种形式:表征迁移和功能迁移。表征迁移涉及将已知任务的表示(权重
超级会员免费看
订阅专栏 解锁全文
1778

被折叠的 条评论
为什么被折叠?



