名词解析之泛化误差

本文探讨了机器学习中的经验风险与真实风险之间的差距,介绍了泛化误差的概念及其计算方法,并讨论了如何通过泛化误差界来评估学习算法的表现。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

摘要:以前在机器学习中一直使用经验风险来逼近真实风险,但是事实上大多数情况经验风险并不能够准确逼近真实风险。后来业界就提出了泛化误差的概念(generalization error),在机器学习中泛化误差是用来衡量一个学习机器推广未知数据的能力,即根据从样本数据中学习到的规则能够应用到新数据的能力。常用的计算方法是:用在训练集上的误差平均值-在测试集上的误差平均值。

一:经验风险

机器学习本质上是一种对问题真实模型的逼近,这种近似模型也叫做一个假设。因为真实模型肯定是无法得到的,那我们的假设肯定与真实情况之间存在误差,这种误差或者误差的积累也叫做风险。

在我们选择了一个假设(或者获得一个分类器)后,为了得到真实误差的逼近,我们用分类器在样本数据上的分类结果与样本本身真实结果之间的差值来表示。这个差值叫做经验风险。

以前机器学习中经常通过经验风险的最小化作为目标,但是后来发现很多分类函数在样本集合上能够很轻易的获得100%的正确率,但是在对真实数据的分类却很糟。也表明了这种分类函数推广能力(泛化能力)差。导致这种现象的原因是:经验风险并不能够真正的逼近真实风险,因为样本集合的数目相对于真实世界要分类的数据来说就是九牛一毛。

之后统计学中就引入了泛化误差界的概念。

二:泛化误差界

泛化误差界刻画了学习算法的经验风险与期望风险之间偏差和收敛速度.

真实的风险应该由两部分组成:

1:经验风险,代表分类器在给定样本上的误差(可以精确计算)。     

2:置信风险,代表我们可以在多大程度上信任分类器在未知数据上的分类结果(不可以精确计算),因为不可以精确计算,所以只能给出一个估计区间,也因为这个泛化误差只能给出一个上界。 与置信风险相关的变量有两个:

    a)样本数量,样本数量越大表明我们的学习结果正确的可能性越大,此时置信风险越小。

    b)VC维,分类函数的VC维越大,推广能力越差,置信风险越大。

真实风险 ≤ 经验风险 + 置信风险。

现在统计学习的目标就从经验风险最小化变为经验风险与置信风险之和最小化。

### 机器学习中的常用名词及其定义 #### 超参数 超参数是指那些不在模型训练过程中自动调整,而是由开发者手动设置的参数。这类参数通常用于控制模型结构或优化过程的关键方面,例如神经网络层数、每层节点数以及正则化系数等[^5]。 #### 过拟合与欠拟合 过拟合指的是当一个统计模型描述随机误差或噪声而不是潜在的关系时发生的现象;此时该模型在新数据上泛化能力差。相反,如果模型未能捕捉到足够的模式,则称为欠拟合,这表明模型过于简单无法有效表示数据特征[^3]。 #### 交叉熵损失函数 交叉熵是一种衡量两个概率分布之间差异的方法,在二分类或多分类任务中被广泛应用于计算真实标签y_true和预测值p_pred之间的距离。它能够有效地反映两者间的相似程度,并指导权重更新以最小化这种差距[^1]。 #### Hopfield网络与玻尔兹曼机 这两种都是基于能量框架构建的人工神经网络形式。前者是没有隐藏层且各单元间存在双向对称连接关系的一种特殊类型的反馈型ANNs——即所谓的“自联想记忆”。后者则是引入了一定数量隐含结点后的扩展版本,允许更复杂的内部表征形成机制发挥作用[^4]。 #### 无监督学习下的聚类技术 作为一种典型的非监督方法论分支之一,“聚类”旨在发现给定集合内对象自然分群的趋势并据此划分群体。此操作无需预先知晓任何有关类别归属的信息即可完成,因此非常适合处理未知标注的大规模原始资料集,比如客户细分市场分析或是异常检测等领域应用案例[^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值