信用卡欺诈检测:自编码器与半监督学习实践
1. 过完备自编码器的正则化技术
1.1 线性激活与Dropout的过完备自编码器
为改善过完备自编码器的性能,可采用正则化技术减少过拟合,其中一种技术是Dropout。Dropout会强制自编码器在神经网络层中丢弃一定比例的单元。我们将在隐藏层应用10%的Dropout,即丢弃10%的神经元,Dropout比例越高,正则化效果越强。
以下是实现代码:
model = Sequential()
model.add(Dense(units=40, activation='linear', input_dim=29))
model.add(Dropout(0.10))
model.add(Dense(units=29, activation='linear'))
训练过程及结果如下表所示:
| Epoch | 训练损失 | 训练准确率 | 验证损失 | 验证准确率 |
| — | — | — | — | — |
| 1 | 0.1358 | 0.7430 | 0.0082 | 0.9742 |
| 2 | 0.0782 | 0.7849 | 0.0094 | 0.9689 |
| 3 | 0.0753 | 0.7858 | 0.0102 | 0.9672 |
| 4 | 0.0772 | 0.7864 | 0.0093 | 0.9677 |
| 5 | 0.0813 | 0.7843 | 0.0108 | 0.9631 |
| 6 | 0.0
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



