Transformer模型实战训练(带数据集)

选择模型架构

Transformer 架构自从被提出以来,已经演化出多种变体,用来适应不同的任务和性能需求。以下是一些常见的 Transformer 架构方式,包括原始的设计以及后续的一些创新。
在这里插入图片描述

在这里插入图片描述
我们熟知的 GPT 系列模型,使用的是 Decoder-only 架构,Google 的 Bert 模型使用的是 Encoder-only 架构。GPT 系列模型之所以选择使用 Decoder-only 架构,主要出于以下几点考虑:

  1. GPT 是语言模型,根据给定的文本预测下一个单词,而解码器就是用来生成输出序列的。
  2. Decoder-only 模型采用自回归方式进行训练,在生成每一个新词时,都会利用之前所有已生成的词作为上下文。这种自回归的特性使得 GPT 能够在生成文本时保持内容的连贯性和逻辑性。
  3. 与编码器 - 解码器结构相比,Decoder-only 架构简化了模型设计,专注于解码器的能力。

其他原因如并行性、长距离依赖、自注意力就不讲了,这是 Transformer 架构的通用特点,我们这节课就基于 Decoder-only 架构构建一个模型。

构建模型

模型设计比较复杂,需要先设计模型大概的结构,比如层数、多头注意力头数、隐藏层层数等,甚至词汇表大小都要有一个预估,根据这些参数,我们可以大概计算出模型的参数量,然后根据 Scaling Law,计算出大概需要的运算量,进而评估训练成本。
Scaling Laws,简单理解就是随着模型大小、数据集大小和用于训练的计算浮点数的增加,模型的性能会提高。并且为了获得最佳性能,这三个因素必须同时放大。当不受其他两个因素的制约时,模型性能与每个单独的因素都有幂律关系,其中包含一个计算公式:浮点运算量(FLOPs)C、模型参数 N 以及训练的 token 数 D 之间存在关系:C=approx6ND。不过需要注意,这个公式成立的前提是,我们的模型基于 Decoder-only 架构。

我们先来看看参数规模的计算方式:总参数量 = 嵌入层参数量 + 位置编码参数量 + 解码器层参数量 + 线性输出层参数量。

  1. 嵌入层参数量 = vocab_size(300) * embed_size(512)
    vocab_size 是指词汇表的大小,预训练数据集处理后会转换成词汇表,vocab_size 就是这个词汇表的大小;embed_size 是指词嵌入向量的维度数,简单理解就是每个词的特征数。
  2. 位置编码参数量 = embed_size
  3. 解码器层参数量 =(自注意力机制参数量 + 前向馈网络参数量)* 层数
    自注意力部分通常包括四个核心组件的参数。

查询矩阵 (Q):embed_size * embed_size
键矩阵 (K):embed_size * embed_size
值矩阵 (V):embed_size * embed_size
输出线性变换:embed_size * embed_size
所以自注意力机制参数量 = 4 * embed_size * embed_size,前馈网络参数量 = 2 * (embed_size * hidden_dim),hidden_dim 是指隐藏层层数。

  1. 线性输出层参数量 = vocab_size * embed_size

总参数量 N = vocab_size * embed_size+embed_size+(4 * embed_size * embed_size+2 * embed_size * hidden_dim)* 层数 + vocab_size * embed_size。公式大概就是这样的,我们先不计算最终结果,因为 vocab_size 取决于训练文本大小以及分词方式,所以参数量先放放,我们继续往下看。

我们接下来定义一个简单的 Transformer 模型,每行代码都有注释,你可以看下。

#代码位置
/root/test_yang/practice_transformer/train_transformer
# 选择环境
conda create -n transformer python=3.9
conda activate transformer
import torch
from torch import nn

# 定义一个仅包含解码器的Transformer模型
class TransformerDecoderModel(nn.Module):
    def __init__(self, vocab_size, embed_size, num_heads, hidden_dim, num_layers):
        super(TransformerDecoderModel, self).__init__()  # 调用基类的初始化函数
        # 创建嵌入层,将词索引转换为嵌入向量
        self.embed = nn.Embedding(vocab_size, embed_size)
        # 初始化位置编码,是一个可学习的参数
        self.positional_encoding = nn.Parameter(torch.randn(embed_size).unsqueeze(0))
        # 定义一个Transformer解码器层
        decoder_layer = nn.TransformerDecoderLayer(d_model=embed_size, nhead=num_heads, dim_feedforward=hidden_dim)
        # 堆叠多个解码器层构成完整的解码器
        self.transformer_decoder = nn.TransformerDecoder(decoder_layer, num_layers=num_layers)
        # 定义输出层,将解码器输出转换回词汇空间
        self.fc = nn.Linear(embed_size, vocab_size)

    def forward(self, src):
        # 嵌入输入并添加位置编码
        src = self.embed(src) + self.positional_encoding
        # 生成源序列的掩码,用于屏蔽未来的信息
        src_mask = self.generate_square_subsequent_mask(src.size(0))
        # 通过解码器传递源数据和掩码
        output = self.transformer_decoder(src, src, src_mask)
        # 应用线性层输出最终的预测结果
        output = self.fc(output)
        return output

    def generate_square_subsequent_mask(self, sz):
        # 生成一个上三角矩阵,用于序列生成中遮蔽未来位置的信息
        mask = (torch.triu(torch.ones(sz, sz)) == 1).transpose(0, 1)
        # 将掩码的非零位置设为无穷大,零位置设为0
        mask = mask.float().masked_fill(mask == 0, float('-inf')).masked_fill(mask == 1, float(0.0))
        return mask


init 方法类似于 Java 里类的构造函数,用来初始化属性。forward 方法是前向传播的具体实现,generate_square_subsequent_mask 方法用来生成掩码矩阵。这个类会在训练的时候进行实例化。在正式训练之前,我们先看下怎么准备数据。

准备训练数据

本次训练我找的是一个公开的中文 wiki 数据集。因为是自回归训练,所以不需要使用像翻译模型那种语料对,而是直接使用自然语言文本。单条文本格式如下:

unzip /root/test_yang/practice_transformer/wiki_zh_2019.zip
{"id": "66", "url": "https://zh.wikipedia.org/wiki?curid=66", "title": "信息学", "text": "信息学\n\n信息学,旧称情报学(外来语),主要是指以信息为研究对象,利用计算机及其程序设计等技术为研究工具来分析问题、解决问题的学问,是以扩展人类的信息功能为主要目标的一门综合性学科。\n\n\n作为一门新型的综合性学科,信息学的理论主要是建立在数学中的离散数学之上的。因为信息学所研究的对象信息本身即是离散体。在某些特定的条件下,信息学与计算机科学是等价的。\n"}

不需要 ID 和 URL 这些,只保留 text 字段,所以先进行文本预处理。你可以看一下文件目录。
在这里插入图片描述

循环遍历子目录,然后分别读取每个文件里的文本,再从 json 格式的数据里抽取 text 字段对应的数据,保存成 sentence.txt 文件。抽取完成的 sentence.txt 文件有 1.2GB。你可以参考我给出的代码。

import json
import os

class PrepareData():
    @staticmethod
    def prepare():
        root_dir = 'data/wiki_zh'
        ds = []
        for dir_path, dir_names, file_names in os.walk(root_dir):
            for file_name in file_names:
                file_path = os.path.join(dir_path, file_name)
                if "." in file_path:
                    continue
                with open(file_path, 'r') as file:
                    for line in file:
                        try:
                            text = json.loads(line)["text"]
                            print(text)
                            ds.append(text)
                        except json.JSONDecodeError:
                            print("格式不正确")
        print(len(ds))
        with open('data/sentence.txt', 'w') as file:
            for i in ds:
                file.write(i + '\n')
        return ds

data_set = PrepareData.prepare()
for item in data_set:
    print(item)


数据处理好,我们就可以开始训练了。

训练模型

模型训练是非常复杂的过程,也是最消耗资源的过程。我们先定义一个数据集处理类,将 sentence.txt 里的内容逐行读入,使用 jieba 进行分词,转化成词汇表保存到本地。

# 导入必需的库
from torch.utils.data import Dataset
import torch
import jieba
import json

# 定义TextDataset类,该类继承自PyTorch中的Dataset
class TextDataset(Dataset):
    # 初始化函数,filepath为输入文件路径
    def __init__(self, filepath):
        words = []  # 创建一个空列表来存储所有单词

        # 打开文件并读取每一行
        with open(filepath, 'r') as file:
            for line in file:
                # 使用jieba库进行分词,并去除每行的首尾空白字符
                words.extend(list(jieba.cut(line.strip())))

        # 将所有单词转换为一个集合来去除重复,然后再转回列表形式,形成词汇表
        self.vocab = list(set(words))
        self.vocab_size = len(self.vocab)  # 计算词汇表的大小

        # 创建从单词到整数的映射和从整数到单词的映射
        self.word_to_int = {word: i for i, word in enumerate(self.vocab)}
        self.int_to_word = {i: word for i, word in enumerate(self.vocab)}

        # 将映射关系保存为JSON文件
        with open('data/word_to_int.json', 'w') as f:
            json.dump(self.word_to_int, f, ensure_ascii=False, indent=4)
        with open('data/int_to_word.json', 'w') as f:
            json.dump(self.int_to_word, f, ensure_ascii=False, indent=4)

        # 将所有单词转换为对应的整数索引,形成数据列表
        self.data = [self.word_to_int[word] for word in words]

    # 返回数据集的长度减1,这通常是因为在机器学习中可能需要使用当前数据点预测下一个数据点
    def __len__(self):
        return len(self.data) - 1

    # 根据索引idx返回数据,这里用于返回模型训练时的输入序列和目标输出
    def __getitem__(self, idx):
        # 从数据中提取最多50个整数索引作为输入序列
        input_seq = torch.tensor(self.data[max(0, idx - 50):idx], dtype=torch.long)
        # 提取目标输出,即索引位置的单词
        target = torch.tensor(self.data[idx], dtype=torch.long)
        return input_seq, target  # 返回一个元组包含输入序列和目标输出


通过下面的代码加载数据集,并处理成 DataLoader,DataLoader 可以理解成数据迭代器,可以便利地进行数据加载、批次划分和数据打乱等操作。

# 加载数据集
dataset = TextDataset('data/sentence.txt')
dataloader = DataLoader(dataset, batch_size=batch_size, shuffle=True, collate_fn=collate_fn, drop_last=True)


初始化模型:

# 初始化TransformerDecoderModel,设置特定的参数:
# vocab_size - 数据集中的词汇表大小
# embed_size - 嵌入层的维度(这里是512)
# num_heads - 多头注意力机制中的注意力头数(这里是8)
# hidden_dim - 变换器中前馈网络模型的维度(这里是2048)
# num_layers - 模型中的层数(这里是6)
model = TransformerDecoderModel(vocab_size=dataset.vocab_size, embed_size=512, num_heads=8, hidden_dim=2048, num_layers=6)

# 将模型传送到定义的设备上(例如GPU或CPU),以便进行训练
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model.to(device)

# 初始化优化器,这里使用Adam优化器,并设置学习率
# model.parameters() - 从模型中获取参数
# lr - 学习率(这里用变量learning_rate表示)
optimizer = optim.Adam(model.parameters(), lr=learning_rate)

# 初始化损失函数,这里使用交叉熵损失,适用于分类问题
criterion = nn.CrossEntropyLoss()


前面讲的计算参数规模的几个变量,基本都在这里了,我们再来看看参数量计算公式:总参数量 N = vocab_size * embed_size + embed_size +(4 * embed_size * embed_size + 2 * embed_size * hidden_dim)* 层数 + vocab_size * embed_size 代入变量:N = vocab_size * 512 + 512 +(4 * 512 * 512+2 * 512 * 2048)* 6 + vocab_size * 512,假设 vocab_size = 100000(100000 其实非常小,几个 MB 的训练数据,词汇量基本就能达到 100000 了),那么参数量 N = 100000 * 512 + 512 +(4 * 512 * 512 + 2 * 512 * 2048)* 6+100000 * 512 = 121,274,880,这已经是 1.2 亿规模的参数了。GPT-3 的训练数据大约 570GB,Transformer 层数为 96。你可以想象一下,1750 亿参数是怎么来的。按照我们这个计算方式,不止 1750 亿了,所以我猜测 embed_size 没有 512,就是说一个单词不一定需要那么多维度去描述。

接下来我们开始训练。

# 将模型设置为训练模式
model.train()

# 循环遍历所有的训练周期
for epoch in range(num_epochs):
    # 循环遍历数据加载器中的每个批次
    for i, (inputs, targets) in enumerate(dataloader):
        # 将输入数据转置,以符合模型的期望输入维度
        inputs = inputs.t() 
        # 在每次迭代前清空梯度
        optimizer.zero_grad()
        # 前向传播:计算模型对当前批次的输出
        outputs = model(inputs)
        # 选择输出的最后一个元素进行损失计算
        outputs = outputs[-1] 
        # 计算损失值
        loss = criterion(outputs, targets)
        # 反向传播:计算损失的梯度
        loss.backward()
        # 更新模型的参数
        optimizer.step()
        # 每隔50步打印一次当前的训练状态
        if i % 50 == 0:
            print(f'Epoch [{epoch + 1}/{num_epochs}], Step [{i + 1}/{len(dataloader)}], Loss: {loss.item()}')
            torch.save(model.state_dict(), '/root/test_yang/practice_transformer/model/transformer_model_{}.pth'.format(i))
            torch.onnx.export(model, inputs, "/root/test_yang/practice_transformer/model/test.onnx", do_constant_folding=False)

# 保存模型到指定路径
torch.save(model, model_path)
print('模型已保存到', model_path)

以上为模型分段介绍,在这里介绍启动命令和完整脚本。
脚本位置:/root/test_yang/practice_transformer/train_transformer/trainsformer.py

cd /root/test_yang/practice_transformer/train_transformer
# 激活环境选tranformer
python trainsformer.py

# 返回结果如下
Building prefix dict from the default dictionary ...
Loading model from cache /tmp/jieba.cache
Loading model cost 0.480 seconds.
Prefix dict has been built successfully.
Epoch [1/10], Step [1/320522], Loss: 13.128990173339844
Epoch [1/10], Step [51/320522], Loss: 11.38953971862793
Epoch [1/10], Step [101/320522], Loss: 9.361749649047852
Epoch [1/10], Step [151/320522], Loss: 8.966117858886719
Epoch [1/10], Step [201/320522], Loss: 9.507869720458984
Epoch [1/10], Step [251/320522], Loss: 9.376718521118164
Epoch [1/10], Step [301/320522], Loss: 8.776058197021484
Epoch [1/10], Step [351/320522], Loss: 8.585226058959961
AEpoch [1/10], Step [401/320522], Loss: 9.713953018188477
Epoch [1/10], Step [451/320522], Loss: 8.481252670288086

问题发生与解决:
参考:https://blog.youkuaiyun.com/SPESEG/article/details/141024760

RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cpu! (when checking argument for argument index in method wrapper_CUDA__index_select)

# 发生问题代码,必然因为要么模型没有挂载到gpu上要么数据没有挂载到gpu上
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")


# 更改代码, 指出具体使用哪块gpu,训练过程需要到的数据均需挂载到gpu上
device = torch.device('cuda:0' if torch.cuda.is_available() else 'cpu')
inputs = inputs.to(device)
targets = targets.to(device)

训练过程太过于消耗资源,我的本地用的是 A10-24G 显卡,按照上面这个参数设置,准备了 500M 的训练文本,预估大概需要 1 个月时间才能跑完,所以为了快速出模型,我只截取了其中一部分训练数据,大概 10M,用了半天时间进行训练。

模型测试

位置:/root/test_yang/practice_transformer/train_transformer/test_model.py

# 导入所需库
import torch
import json
import jieba

def load_model(model_path):
    # 加载模型到CPU
    model = torch.load(model_path, map_location=torch.device('cpu'))
    # 设置为评估模式
    model.eval()
    return model

def load_vocab(json_file):
    """从JSON文件中加载词汇表。"""
    # 读取词汇表文件
    with open(json_file, 'r') as f:
        vocab = json.load(f)
    return vocab

def predict(model, initial_seq, max_len=50):
    # 加载数字到单词的映射
    int_to_word = load_vocab('int_to_word.json')
    # 确保模型处于评估模式
    model.eval()
    # 关闭梯度计算
    with torch.no_grad():
        generated = initial_seq
        # 生成最多max_len个词
        for _ in range(max_len):
            input_tensor = torch.tensor([generated], dtype=torch.long)
            output = model(input_tensor)
            predicted_idx = torch.argmax(output[:, -1], dim=-1).item()
            generated.append(predicted_idx)
            # 如果生成结束标记,则停止生成
            if predicted_idx == len(int_to_word) - 1:
                break
        # 将生成的索引转换为单词
        return [int_to_word[str(idx)] for idx in generated]

def generate(model, input_sentence, max_len=50):
    # 使用结巴分词对输入句子进行分词
    input_words = list(jieba.cut(input_sentence.strip()))
    # 加载单词到数字的映射
    word_to_int = load_vocab('word_to_int.json')
    # 将单词转换为索引
    input_seq = [word_to_int.get(word, len(word_to_int) - 1) for word in input_words]
    # 生成文本
    generated_text = predict(model, input_seq, max_len)
    # 将生成的单词列表合并为字符串
    return "".join(generated_text)

def main():
    # 定义输入提示
    prompt = "hello"
    # 加载模型
    model = load_model('transformer_model.pth')
    # 生成文本
    completion = generate(model, prompt)
    # 打印生成的文本
    print("生成文本:", completion)

if __name__ == '__main__':
    # 主函数入口
    main()

得到结果

生成文本: 珍珠港

简直不忍直视,因为训练有限,所以得到这个结果在意料之中,不过基本流程都跑通了。想要模型性能好,是要一步一步调的,这也是我们说前提要有大量的计算资源的原因。

这节课我带你手敲 Transformer 模型,总共加起来不到 300 行代码,实际上如果你阅读过 GPT-2 和 BERT 的模型构建代码,你会发现它们也没有多少行,所以模型构建本身其实并不复杂,模型的构建过程就是整个深度神经网络的架构过程,虽然有一点难度,但是没有想象的那么难,而我认为难点在于预训练过程,既吃训练资源又需要考虑训练效果,如何调整参数让训练效果更好是难点,这和传统 CV 小模型有点类似。

参考论文gpt3

细节解读

model.eval()和model.train()作用

参考:https://cloud.tencent.com/developer/article/2324818

  1. model.train()
    在使用 pytorch 构建神经网络的时候,训练过程中会在程序上方添加一句model.train( ),作用是启用 batch normalization 和 dropout 。如果模型中有BN层(Batch Normalization)和 Dropout ,需要在训练时添加 model.train( )。model.train( ) 是保证 BN 层能够用到每一批数据的均值和方差。对于 Dropout,model.train( ) 是随机取一部分网络连接来训练更新参数。

  2. model.eval()
    model.eval( )的作用是不启用 Batch Normalization 和 Dropout。如果模型中有 BN 层(Batch Normalization)和 Dropout,在测试时添加 model.eval( )。model.eval( ) 是保证 BN 层能够用全部训练数据的均值和方差,即测试过程中要保证 BN 层的均值和方差不变。对于 Dropout,model.eval( ) 是利用到了所有网络连接,即不进行随机舍弃神经元。

onnx转换
  1. 为什么要转
    因为想看数据流向
    netron --port 8078 --host 51.159.175.229 /root/test_yang/practice_transformer/model/test.onnx
    在这里插入图片描述

  2. 怎么转

报错 torch.onnx.errors.OnnxExporterError: Module onnx is not installed!
pip install onnx
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值