医疗与能源领域的研究进展及挑战
1. 抑郁症预测的机器学习算法研究
1.1 算法对比:XGBoost 与 k - 近邻算法
在抑郁症预测中,对比了 XGBoost 和 k - 近邻算法。k - 近邻算法训练准确率看似有 98.162%,但测试准确率仅为 87.413%,训练和测试准确率差距较大,这表明该模型存在过拟合问题,即模型试图适应训练集中遇到的任何特征组合。
而 XGBoost 不仅训练准确率高,测试准确率也达到了 95.762%,训练和测试准确率差距较小。这意味着相对于训练数据,该算法在对未见过的数据进行预测时表现较好。从其他指标来看,XGBoost 的优势也很明显:
| 算法 | 精度 | F - 测度 | ROC 曲线下面积 | 基尼系数 |
| ---- | ---- | ---- | ---- | ---- |
| XGBoost | 0.06250 | 0.11765 | 0.97368 | 0.94737 |
| k - 近邻算法 | 0.02703 | 0.05263 | 0.97368 | 0.94737 |
这些指标表明,XGBoost 能更好地处理真阳性和真阴性情况,更准确地将抑郁症患者分类为“抑郁”,这对于需要紧急医疗关注的抑郁症患者来说非常重要。
1.2 超参数调优对 XGBoost 的影响
通过对比超参数调优前后的混淆矩阵,可以计算出在步数为 20 时的准确率、精度、召回率和 F - 测度等指标。
超参数调优前的混淆矩阵:
| | 实际值阳性 (1) | 实际值阴性 (0) |
| ---- | --
超级会员免费看
订阅专栏 解锁全文
6123

被折叠的 条评论
为什么被折叠?



