自然语言处理问题中的机器学习
在机器学习中,我们难以消除不可约误差,因此应重点关注偏差和方差。在处理偏差 - 方差权衡时,我们可以参考相关步骤图,它能帮助我们应对高偏差或高方差的情况。
评估矩阵
在评估机器学习模型时,我们通常会检查准确率,但往往不清楚哪些属性在评估中起主要作用。这里介绍一种在自然语言处理(NLP)应用中广泛使用的评估矩阵——F1 分数(F - measure)。在了解 F1 分数之前,先明确一些术语:
1. 真正例(True positive, TP) :分类器将数据点标记为 A,且该数据点实际上也属于 A 类。
2. 真负例(True Negative, TN) :分类器能正确拒绝将数据点归入任何类别,即不会随机将数据点分类到 A 类,而是拒绝错误标签。
3. 假正例(False Positive, FP) :也称为第一类错误。例如,一个人进行癌症血液检测,实际上他没有癌症,但检测结果呈阳性。
4. 假负例(False Negative, FN) :也称为第二类错误。例如,一个人患有癌症,但癌症血液检测结果为阴性,即忽略了真实的类别标签。
此外,还有几个重要的指标:
1. 精确率(Precision) :衡量准确性,即分类器标记为正例的数据点中,实际为正例的百分比,计算公式为:$precision = \frac{TP}{TP + FP}$。
2. 召回率(Recall) :衡
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



