AI大模型开发架构设计(20)——LLM大模型微调(Fine-tuning)实战

1 LLM 大模型架构设计关键技术剖析

大语言模型预训练到底是什么?

大语音模型预训练?

  • 给定一个已知输入(X)已知结果(Y),不断修改/更新这个大模型的参数,让这个大模型的输出无限逼近这个已知结果(Y)的过程。
    • 当这个差值(大模型的输出值和实际值之间的差异)足够小(损失函数),变成我们可以接受的状态就预训练完成。

神经网络的最基础的一个神经元计算单元

  • X 和 Y 的线性关系

image.png

  • 最基础的一个神经网络

image.png

大语言模型预训练目标是什么?
  • 语言模型(Language Model):根据已有的词(称为token),预测下一个词。训练目标是最大化似然函数

image.png

  • 去噪自编码器(Denoising Auto Encoder):随机替换掉一些文本段,训练 LLM 目标是恢复被打乱的文本段。目标函数:

image.png

  • 去噪自编码器的实现难度更大,采用它作为训练目标的 LLM 有 ChatGLM-130B、T5。
大语音模型tokenizer如何构建?

Byte-Pair Encoding(BPE)构建步骤

  • 准备足够的训练预料以及期望的词表大小
  • 将单词拆分为字符粒度(字粒度),并在末尾添加后缀“”,统计单词频率
  • 合并方式:统计每一个连续/相邻字节对的出现频率,将最高频率的连续字节对合并为新的子词
  • 重复第 3 步,直到词表达到设定的词表大小或下一个最高频字节对出现频率为1
    • GPT-2、BART、LLaMA 等都采用了 BPE 的方式。

LLM 大模型分词案例

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

讲文明的喜羊羊拒绝pua

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值