Informer复现 -- 训练及吃瓜

想吃瓜的同学,直接往后看

训练

经过几次博文,Informer的模型已经完全复现了。接下来就是通过训练验证复现的模型是否可行。

优化器optimizer用Adam,评价标准criterion用MSELoss(),学习率设置为1e-3,学习率衰减采用CosineLRScheduler (timm.scheduler.cosine_lr),预热5个epoch。batch_size和源代码保持一致,设置为32。pred_len设置为24。

经过10个epoch的训练,最终得到结果为

相较于源代码中公布的结果(MSE 0.577 和MAE 0.549)而言,复现的结果要比源代码的好。

同时,复现的代码也提供了真实的MAE和MSE(数据刚开始归一化进行训练,测试结果要反归一化)。

需要完整训练代码的同学,可关注公众号 (AI天天用),留言获取。

吃瓜

正当不同研究者疯狂研究Informer的时候,一朵(或许很多?)质疑的乌云悄悄地飘到了Informer的上空。

有的质疑在自己数据集上效果一般(以下截图来自知乎):

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值