摘要
本文提出了一种新的正则化方法——虚拟对抗训练(Virtual Adversarial Training, VAT),旨在通过引入虚拟对抗损失来增强模型的泛化能力。虚拟对抗损失衡量了给定输入条件下条件标签分布的局部平滑性,定义为模型对输入数据点周围局部扰动的鲁棒性。与传统对抗训练不同,VAT不需要标签信息来定义对抗方向,因此适用于半监督学习。本文详细阐述了VAT的核心方法,并通过实验验证了其在多个基准数据集上的有效性。
关键词:虚拟对抗训练;正则化方法;监督学习;半监督学习;对抗方向
1. 引言
在实际回归和分类问题中,模型设计和优化过程需要面对欠拟合和过拟合两大挑战。欠拟合指的是模型过于简单,无法捕捉数据的内在模式,导致训练和测试误差都较大。而过拟合则是指模型过于复杂,虽然能够很好地拟合训练数据,但在未见过的测试数据上表现不佳。正则化是一种引入额外信息以管理训练误差和测试误差之间不可避免差距的过程。
在本文中,我们提出了一种新的正则化方法,适用于半监督学习,该方法能够识别分类器行为最敏感的方向。正则化通常通过在损失函数中添加正则化项来实现,以防止模型对有限样本点上的损失函数过拟合。从贝叶斯的角度来看,正则化项可以解释为反映我们对模型先验知识或信念的先验分布。
尽管随