衡量机器学习模型

博客围绕模型评估展开,指出模型选择时仅用训练集拟合参数、测试集找最佳次方模型,无法预测新样本泛化能力。介绍将数据集分为训练集、验证集和测试集,用验证集选模型、测试集得泛化误差,还提及偏差和方差、精准率、召回率及F_1值等内容。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

评估假设:

模型选择时,利用训练集得到每个模型的最佳Θ值,再利用测试集找到最佳次方的模型。

图上是通过测试集来得到参数d(选用几次函数模型)

用训练集来拟合参数Θ1、Θ2等参数时,那么拟合后的模型在训练集上的效果,是不能预测出对新样本的泛化能力。

所以上面的做法是不合理的。

将数据集分为:训练集、验证集、测试集

此时我们用验证集选择模型,然后用测试集得到泛化误差。

偏差和方差

解决办法:

精准率、召回率:

F_1值

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值