18、深度学习中的迁移学习与分布式训练策略

深度学习中的迁移学习与分布式训练策略

迁移学习中的特征提取与微调

在实现迁移学习时,有两种修改原始模型权重的方法:特征提取和微调。

特征提取是指冻结瓶颈层之前所有层的权重,并在自己的数据和标签上训练后续层。而微调则是更新预训练模型层的权重,可以选择更新预训练模型中每层的权重,也可以只更新瓶颈层之前的几层。通常,使用微调训练迁移学习模型比特征提取花费的时间更长。

在微调时,通常会冻结模型初始层的权重,因为这些层经过训练可以识别基本特征,这些特征在许多类型的图像中通常是通用的。例如,要微调 MobileNet 模型,可以只对模型中的一部分层设置 trainable=False ,而不是让每一层都不可训练。以下是在第 100 层之后进行微调的代码示例:

base_model = tf.keras.applications.MobileNetV2(input_shape=(160,160,3),
                                               include_top=False,
                                               weights='imagenet')
for layer in base_model.layers[:100]:
  layer.trainable =  False

确定要冻结多少层的一种推荐方法是渐进式微调。具体操作步骤如下:
1. 保持较低的学习率(通常为 0.001)和相对较少的训练迭代次数。
2

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值