batch_size过大单条验证准确率小于批验证准确率现象深入测试-LSTM seq2seq模型

>本文测试用的模型

神经网络类型:LSTM seq2seq

深度:5层

Embedding 维度:300

其它技术:双向encode、残差技术、dropout技术、注意力机制

>批验证准确率与单条验证准确率测试说明

批验证准确率与单条验证准确率使用的语料集都是训练语料集,批验证准确率使用训练的batch_size进行测试,单条验证准确率使用batch_size=1进行测试。

>batch_size值影响单条验证准确率

在LSTM seq2seq模型训练中,一般使用小批量梯度下降,一般教材推荐在内存许可情况下,尽量增大batch_size,以加速训练。实际使用中,发现如果训练batch_size与模型实际预测不一致时,训练批验证准确率达到100%,单条验证准确率不等于批验证准确率,批验证准确率是小批量校验的,使用的batch_size与训练相同,模型实际预测时是单条进行的,因此单条验证准确率使用单条进行的。如下图所示,训练语料集为2000组对话。

 

 

&

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值