大型语言模型LLM的核心概念

本文主要介绍了目前主流的,几个大型语言模型LLM的整个训练过程

通常分为下面的几个阶段

1. 预训练

采用互联网上的大量数据进行训练,这一阶段大模型LLM的主体已定,找出共性并且压缩成一个模型。模型的参数量不是越大越好,遵循合理、适中的原则。增加数据量并保持中到大型的参数规模,则是一个成本与模型效果的平衡之后的合理方案

2. 微调

大型语言模型中,绝大部分的知识都是在预训练中学习的。
这阶段需要喂给精确的、高质量的问答数据给大模型,可以使用相对较少的数据,来继续训练模型,以适应特定问题和场景
对于每个问题,大模型都会给 3 个回答,需要人类手动选择一个最优的回答,给大模型一个反馈,来帮助大模型进一步优化和提升。

3. 模型对齐

使用预期回答模板,套入大模型生成的回答,实现模型和预测的对齐。这有助于符合正当的合法的目的,同时遵守人类最基本的情感、道德、底线、公序良俗以及符合当地的风俗习惯等等
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值