深度学习之模型finetuning

本文探讨了在小数据集上应用深度学习时如何避免过拟合现象,并介绍了一种有效的解决方案——fine-tuning。通过调整预训练模型的最后几层来适应特定任务,同时保留了底层的基础特征提取能力。文章还提供了选择合适预训练模型和调整学习率的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.先说明finetuning在什么情况下使用

-- 借用cs231n课程的图,当数据量较小时,运用深度学习这一神器很可能会出现过拟合的现象,但是又想运用训练的灰常好的如VGGNet、GoogleNet等预训练模型时,可以只对于网络最后面的几层进行重新训练,对于神经网络的底层,因为它充分的在大数据集上进行了基础特征的提取如:颜色、边框等,依旧可以在我们的数据集合上进行运用。当然在进行fine-tuning时,不要盲目的选择预训练模型,可以根据你的数据量、图片数据的特征等(如下表格所示)选择合适的、接近你数据的预训练模型,并且选择合适的需要进行较大重新训练的层和基本不用动的层。


2.具体的fine-tuning流程参加下面的链接,写得非常好。

http://www.cnblogs.com/xuanyuyt/p/6062204.html

补充说明:在网络文件中还可以具体修改 lr_mult: 2  实现对于不同层的学习率设置,在solver文件中是对于整个网络基础学习率的设置。

3.batch_size的设置

http://blog.youkuaiyun.com/ycheng_sjtu/article/details/49804041

4. 预训练模型zoo

https://github.com/BVLC/caffe/wiki/Model-Zoo

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值