深度学习中评估指标:准确率Accuracy、召回率Recall、精确率Precision、特异度(真阴性率)和误报率、灵敏度(真阳性率)和漏报率、F1、PR、ROC、AUC、Dice系数、IOU

目录

准确率(Accuracy)

精确率(Precision,查准率)

召回率(Recall=TPR)

Precision-Recall曲线

F值(F-Measure,综合评价指标)

特异度TNR(真阴性率、specificity)

误报率(FPR、假阳性率)

灵敏度TPR(真阳性率、sensitivity)

漏报率(假阴性率、FNR)

ROC和AUC

Dice系数和IOU


                                       预测

1

0

实际情况

1

真阳性 (TP)

假阴性 (FN)

Recall=\frac{TP}{TP+FN}

FNR=\frac{FN}{TP+FN} = 1- Recall(sensitivity)

0

假阳性(FP)

真阴性 (TN)

specificity(TNR)=\frac{TN}{FP+TN}

FPR=\frac{FP}{FP+TN} = 1- specificity

Precision=\frac{TP}{TP+FP}

漏报率=

Accuracy=\frac{TP+TN}{TP+TN+FP+FN}

True Positives, TP(真阳性):预测为正样本,实际为正样本
False Positives,FP(假阳性):预测为正样本&#x

### 深度学习中的性能评估指标 #### 准确率 (Accuracy) 准确率是指预测正确的样本数占总样本数的比例。尽管它是最直观的评价标准之一,但在类别不平衡的情况下可能具有误导性。例如,在二分类问题中,如果正类占比很小,则即使模型总是预测负类也可能获得较高的准确率[^1]。 ```python from sklearn.metrics import accuracy_score y_true = [0, 1, 0, 1] y_pred = [0, 1, 1, 1] accuracy = accuracy_score(y_true, y_pred) print(f'Accuracy: {accuracy}') ``` #### 召回率 (Recall) 召回率衡量的是实际为正类的样本中有多少被正确识别出来。对于某些应用领域(如医疗诊断),高召回率尤为重要,因为漏检可能会带来严重后果[^2]。 #### 精确 (Precision) 精确关注于模型预测为正类的结果中有多少确实是正类。在信息检索等领域,通常更注重精确以减少无关项的数量[^2]。 #### F1分数 (F1 Score) 当需要权衡精确召回率时,常采用F1分数作为综合考量的标准。它是这两个指标平均值的一种形式[^1]。 ```python from sklearn.metrics import precision_recall_fscore_support precision, recall, f1, _ = precision_recall_fscore_support([0, 1, 1], [1, 0, 1], average='binary') print(f'Precision: {precision}, Recall: {recall}, F1-Score: {f1}') ``` #### 异度 (Specificity) 误报率 (False Positive Rate) 异性表示实负例中被判别为负例的比例;而误报率则是指实际上属于负类却被错误地标记成正类的概。两者互为补集关系[^2]。 #### AUC-ROC 曲线下的面积 (AUC) 通过计算接收者操作性曲线(AUROC)下面围成区域大小得到该数值,用于反映分类器区分能力的好坏程度。一般来说,越接近于1表明效果越好[^2]。 #### 损失函数 (Loss Function) 损失函数定义了目标变量与估计之间差异的程度,并指导优化算法调整参数直至找到最佳解。常见的有交叉熵损失适用于概分布建模场景下监督学习任务等情形[^未提供具体引用材料关于此部分内容,请补充相关信息以便完善说明]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值