鲁棒性(Robustness) 指的是模型在面对输入数据的微小扰动、噪声、异常值或分布变化时,仍能保持稳定和可靠输出的能力。一个鲁棒性强的模型,在输入发生合理范围内的变化时,其预测结果不会发生剧烈波动。
例如:
- 一张图片加入少量噪声,模型仍能正确分类。
- 文本中有个别错别字或同义词替换,模型仍能理解其意图。
- 在训练数据之外的相似场景中,模型表现依然良好。
过拟合(Overfitting) 是指模型在训练数据上表现非常好,但在未见过的测试数据或真实数据上表现较差。这是因为模型“死记硬背”了训练数据的细节和噪声,而不是学习到泛化的规律。
两者的关系:
-
过拟合可能导致鲁棒性差:因为过拟合的模型对训练数据中的噪声和细节过于敏感,一旦输入有轻微变化(如噪声、扰动),其输出可能剧烈变化。从这个角度看,过拟合是导致鲁棒性差的一个常见原因。
-
但鲁棒性问题不仅仅由过拟合引起:即使模型没有过拟合,也可能因为其他原因导致鲁棒性差,比如:
- 模型结构本身对输入扰动敏感(如某些深度神经网络)。
- 训练数据缺乏多样性,导致模型无法适应新环境。
- 对抗样本攻击(adversarial attacks)——精心设计的微小扰动就能欺骗模型。
提高鲁棒性的方法包括:正则化、数据增强、对抗训练、集成学习等,这些方法也有助于缓解过拟合,但目标和应用场景更广。
64

被折叠的 条评论
为什么被折叠?



