Keras LSTM层return_sequences参数的坑

本文记录了在使用Keras LSTM层时,由于return_sequences设置为True导致的问题。这使得网络输出矩阵而非向量,与二分类标签不匹配,但训练过程中未报错。在预测时发现问题,调整为False后输出形状恢复正常。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

具体用法我就不赘述了,可以参考中文文档https://keras.io/zh/layers/recurrent/#lstm

我主要记录一下坑,网络结构如下:

model = Sequential()
model.add(Embedding(257, 150, weights=[embedding_matrix], input_length=X.shape[1], trainable=False))
model.add(SpatialDropout1D(0.55))
# return_sequences: 布尔值。是返回输出序列中的最后一个输出,还是全部序列,默认false。
model.add(LSTM(128, dropout=0.2, recurrent_dropout=0.2, input_shape=(1600, 150), return_sequences=True))
model.add(Dense(32))
# model.add(Dense(2, activation='softmax'))
model.add(Dense(1, activation='sigmoid'))

因为上面网络中LSTM层 return_sequences设置为True,表示返回全部时间序列,而不是仅仅最后一个,导致经过全连接层Dense输出后是一个矩阵而不是一个向量,与标签(二分类,标签为0或1)不匹配,但最坑的一点是竟然不报错,而且还能训练。这是之前的网络结果:

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值