深度神经网络解释与LIME方法应用
1. 模型性能对比
在模型评估中,我们对比了基线模型和深度神经网络(DNN)模型的性能。基线模型在召回率方面,对于正类能达到100%,但对于负类的召回率为0。而DNN模型整体表现远优于基线模型,其精度达到了98.1%,比基线模型提高了35.4%,F1分数为96.2%,比基线模型提高了19.1%。具体性能对比如下:
| 模型 | 精度(%) | 召回率(%) | F1分数(%) |
| — | — | — | — |
| 基线模型1 | 62.7 | 100 | 77.1 |
| DNN模型 | 98.1 (+35.4) | 94.4 (–5.6) | 96.2 (+19.1) |
我们可以通过调整模型的超参数来进一步提升模型性能,例如改变网络结构(隐藏层数量和每层的单元数)以及训练的轮数。此外,由于部分输入特征之间存在高度相关性,去除一些冗余特征也有助于提高模型性能。
2. DNN预测的复杂性
使用DNN进行预测时,数据需要经过多个层,每层包含多个单元。每层的输入会根据单元的权重和激活函数进行非线性变换。以之前用于乳腺癌检测的相对简单的架构为例,一次预测大约涉及890次数学运算,具体训练参数如下:
| 模块 | 参数 |
| — | — |
| linear0.weight | 600 |
| linear0.bias | 20 |
| linear1.weight | 200 |
| linear1.bias | 10 |
| linear2.weight | 50 |
| linear2.bias
超级会员免费看
订阅专栏 解锁全文
624

被折叠的 条评论
为什么被折叠?



