人工智能_大模型042_模型微调002_模型微调代码开发_模型评估_模型checkpoint_超参数构建_训练器构建_数据规整器构建---人工智能工作笔记0177

本文介绍了使用HuggingFace库进行大模型微调的步骤,包括加载 rotten_tomatoes 数据集,加载gpt2小模型,使用Tokenizer进行文本向量化,构建数据规整器,定义训练超参数并创建训练器。文章详细解释了数据处理过程,特别是标签转换和数据对齐的细节,并提供了训练和评估模型的可视化方法,强调了checkpoint在模型保存和继续训练中的作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

然后我们需要使用具有GPU的服务器,来运行下面的代码:

<b>注意:</b> 
<ul>
<li>以下的代码,都不要在Jupyter笔记上直接运行,会死机!!</li>
<li>请下载左边的脚本`experiments/tiny/train.py`,在实验服务器上运行。</li>

1. 导入相关库

```python
import datasets
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModel
from transformers import AutoModelForCausalLM
from transformers import TrainingArguments, Seq2SeqTrainingArguments
from transformers import Trainer, Seq2SeqTrainer
import transformers
from transformers import DataCollatorWithPadding
from transformers import TextGenerationPipeline
import torch
import numpy as np
import os, re
from tqdm import tqdm
import torch.nn as nn
```

2. 加载**数据集**

通过 HuggingFace,可以指定数据集名

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

添柴程序猿

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值