28、基于排名的神经网络:原理、实践与对比分析

基于排名的神经网络:原理、实践与对比分析

1. 模型性能对比

在对MNIST数据集进行测试时,设置训练集大小为$n = 1300$,其中手动添加了270个异常值。训练完成后,在大小为$n = 40000$的测试集上进行预测。以下是LNN和RNN在训练集和测试集上的准确率对比:
|模型|训练集准确率|匹配数/总数|异常值|测试集准确率|匹配数/总数|异常值|
| ---- | ---- | ---- | ---- | ---- | ---- | ---- |
|LNN|100%|1300/1300|0|70.7%|28268/40000|—|
|RNN|78.6%|1021/1300|279|79.1%|31625/40000|—|

从数据中可以看出,RNN的训练集准确率接近测试集准确率,而LNN并非如此。同时,引入了与$F1$分数相似的Matthews相关系数(MCC)进行评估,RNN的MCC = 0.829,LNN的MCC = 0.751。显然,当存在异常值时,RNN的性能优于LNN。

2. 相关问题探讨

2.1 神经网络偏导数项计算

计算神经网络中偏导数项的数量时,需要考虑各层之间矩阵的大小,并将所有矩阵中的元素总数相加,同时要包含偏置项。

2.2 激活函数tanh(z)

  • 函数方程与绘图 :$tanh(z)$的方程为$tanh(z)=\frac{e^{z}-e^{-z}}{e^{z}+e^{-z}}$,需构建一个包含$tanh(z)$、sigmoid和relu函数的图形。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值