TensorFlow使用不同的学习率

本文介绍了如何在TensorFlow中为不同网络层设置不同学习率,特别是在迁移学习中调整预训练模型和新添加层的学习率。通过自定义优化器包装器,可以实现特定层的学习率控制。需要注意的是,使用多个学习率时,要确保每个优化器仅处理一部分变量,并且所有需要更新的变量需明确指定其作用域。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

使用场景

有时候我们需要为不同的网络层设置不同的学习率。比如在fine-tune的时候,一个best practice就是在ImageNet上预训练的骨干部分使用较小的学习率,而新添加的部分使用较大的学习率。如图所示的计算图谱,如果我们希望骨干部分的残差网络学习率小一点,而新增加的aspp模块学习率稍大一点。
DeepLab
虽然TensorFlow对使用不同的学习率没有提供比较便捷的支持,但使用TF提供的低层API简单封装一下优化器便可达到我们的目的。
先写一个函数用于获取具体的优化器:

def get_solver(kind, lr):
    kind = kind.lower()
    if kind == 'adam':
        solver = tf.train.AdamOptimizer(lr)
    elif kind == 'sgd':
        solver = tf.train.GradientDescentOptimizer(lr)
    elif kind == 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值