根据save_steps,epoch,batch_size,训练集数据量,判断会有多少个checkpoint

16 篇文章 ¥9.90 ¥99.00

要判断在训练过程中会有多少个检查点(checkpoint),我们需要考虑以下几个因素:

  1. 训练集数据量:假设训练集数据量为 num_samples

  2. epoch:假设训练的总周期数为 num_epochs

  3. save_steps:假设每隔 save_steps 个训练步骤保存一次检查点。

  4. steps_per_epoch:每个 epoch 的训练步骤数,通常为 num_samples / batch_size

我们可以通过以下步骤来计算总的检查点数量:

  1. 计算每个 epoch 的训练步骤数

    steps_per_epoch=num_samples​ / batch_size
  2. 计算总的训练步骤数

    total_steps=num_epochs × steps_per_epoch
  3. 计算总的检查点数量

    num_checkpoints=total_steps ​/
0%| | 3/4689 [00:46<19:55:01, 15.30s/it]这时间也太长了,我的代码如下 train_data, test_data = load_processed_data() # 加载BERT的分词器 tokenizer = BertTokenizer.from_pretrained("C:/Users/Administrator/bert_cache") # 应用预处理 train_data = train_data.map(preprocess_function, batched=True) test_data = test_data.map(preprocess_function, batched=True) # 重命名标签列(适配HuggingFace格式) train_data = train_data.rename_column('label', 'labels') test_data = test_data.rename_column('label', 'labels') # 设置pytorch格式 train_data.set_format('torch', columns=['input_ids', 'attention_mask', 'labels']) test_data.set_format('torch', columns=['input_ids', 'attention_mask', 'labels']) # 加载预训练模型 model = BertForSequenceClassification.from_pretrained( "C:/Users/Administrator/bert_cache", num_labels=2 ) training_args = TrainingArguments( output_dir='./results', # 输出目录 num_train_epochs=3, # 训练轮次 per_device_train_batch_size=16, # 训练批次大小 per_device_eval_batch_size=64, # 评估批次大小 warmup_steps=500, # 学习率预热步数 weight_decay=0.01, # 权重衰减 logging_dir='./logs', # 日志目录 eval_strategy='epoch', # 每轮评估一次 save_strategy='epoch' ) # 创建Trainer trainer = Trainer( model=model, args=training_args, train_dataset=train_data, eval_dataset=test_data, # 实际应用时应使用验证集 compute_metrics=compute_metrics ) # 开始训练! trainer.train() # 保存模型 model.save_pretrained('./my_bert_model') tokenizer.save_pretrained('./my_bert_model') 自定义函数为def load_processed_data(): dataset = load_from_disk("../data/processed_imdb") return dataset['train'], dataset['test'] # 定义预处理函数 def preprocess_function(examples): return tokenizer( examples['text'], truncation=True, padding='max_length', max_length=256 ) # 定义评估指标 def compute_metrics(p): preds = np.argmax(p.predictions, axis=1) return {'accuracy': accuracy_score(p.label_ids, preds)} 该怎么解决时长需求过长的问题
最新发布
04-04
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

快乐的打字员

谢谢打赏~

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值