目录
- 模型评估概述
- 样本集划分
- N折交叉验证技术
- 什么是评测指标
- 常见评估指标
- 两类常见的评测指标
- 正负样本划分
- 准确率/召回率/精确度
- PR曲线和F1 score
- ROC曲线
- AUC
- 混淆矩阵
- IoU
- PSNR
一、模型评估概述
模型评估是机器学习和人工智能领域中的一个关键环节,它旨在对训练好的模型进行性能评估,以了解模型在未见过的新数据上的表现。
模型评估的目的
验证模型性能: 通过评估,确定模型在给定任务上的准确度、可靠性、泛化能力等指标。
识别错误和偏差: 发现模型在特定类型数据或情境中的弱点,如过拟合、欠拟合或偏差。
指导模型改进: 提供关于如何调整模型参数、优化数据处理方法的具体见解。
支持迭代开发: 评估结果是迭代开发过程中不可或缺的部分,帮助开发者在每个阶段优化模型。
确保模型适用性: 评估模型在现实世界复杂和不可预测数据上的表现,确保模型能够有效工作。
- 样本集划分
样本集分为训练集,验证集,测试集3个不相交的子集
训练集:用于