如何对深度学习模型进行在线更新,迁移学习

本文探讨了增量学习中的三种策略:仅微调最后一层(特征提取)、微调所有层及微调所有层同时冻结批处理标准化层的参数。实验结果显示,特征提取的表现不及微调整个网络,而从头开始训练通常是最佳选择。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目标:学到新数据特征的同时,保持旧网络固有的性能,避免“灾难性遗忘”,
增量学习,迁移学习的一种。
Transferability
(1)仅微调最后一层(也称为特征提取)(ft-last); (2)微调 N 的所有层(ft-full); (3)与ft-full相同,但冻结批处理标准化层的参数 - 在某些情况下,这已被证明是有益的 - 我们将此选项称为ft-full-bn-off。图3中的结果显示了一些有趣的现象。首先,如预期的那样,特征提取(ft-last)不如微调整个网络。其次,通常从头开始的训练是最有利的选择。
在这里插入图片描述在这里插入图片描述

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值