在优化器中设置不同学习率

部署运行你感兴趣的模型镜像
model = MyModel(**args)
# 不同层使用不同学习率
param_optimizer = list(model.named_parameters())
# pretrain model param
param_pre = [(n, p) for n, p in param_optimizer if 'bert' in n]
# downstream model param
param_downstream = [(n, p) for n, p in param_optimizer if 'bert' not in n]

no_decay = ['bias', 'LayerNorm', 'layer_norm']
optimizer_grouped_parameters = [
# pretrain model param
    {'params': [p for n, p in param_pre if not any(nd in n for nd in no_decay)],
    'weight_decay': self.config.weight_decay_rate, 'lr': self.config.bert_lr
    },
    {'params': [p for n, p in param_pre if any(nd in n for nd in no_decay)],
    'weight_decay': 0.0, 'lr': self.config.bert_lr
    },
# downstream model
            {'params': [p for n, p in param_downstream if not any(nd in n for nd in no_decay)],
             'weight_decay': self.config.weight_decay_rate, 'lr': self.config.downstream_lr
             },
    {'params': [p for n, p in param_downstream if any(nd in n for nd in no_decay)],
    'weight_decay': 0.0, 'lr': self.config.downstream_lr
    }
    ]

# define the optimizer
# optimizer = optim.Adam(filter(lambda p: p.requires_grad, ori_model.parameters()), lr=self.config.learning_rate) # 在网络中固定部分参数进行训练
optimizer = optim.Adam(optimizer_grouped_parameters, lr=self.config.bert_lr, betas=(0.9, 0.99))

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值