transform下载模型

代码示例展示了如何加载两个不同版本的GPT-2模型到PyTorch设备上,并设置为评估模式。在运行过程中,模型的配置文件和权重被下载,这些文件通常用于训练后的推理任务。此外,讨论了模型的保存和缓存机制。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

运行代码: model1 = GPT2LMHeadModel.from_pretrained(‘gpt2-xl’, return_dict=True).to(device) model1.config.pad_token_id = model1.config.eos_token_id model2 = GPT2LMHeadModel.from_pretrained(‘gpt2’, return_dict=True).to(device) model1.eval() model2.eval() 显示一串内容 n:0 total:689 elapsed:0.03336215019226074 ncols:null nrows:null prefix:“Downloading (…)lve/main/config.json” ascii:false unit:“B” unit_scale:true rate:null bar_format:null postfix:null unit_divisor:1000 initial:0 colour:null Filter… n:0 total:6431878936 elapsed:0.033989667892456055 ncols:null nrows:null prefix:“Downloading (…)“pytorch_model.bin”;” ascii:false unit:“B” unit_scale:true rate:null bar_format:null postfix:null unit_divisor:1000 initial:0 colour:null 是什么意思?
在这里插入图片描述

代码是用来加载两个预训练的 GPT-2 模型,并将它们设置为评估模式。GPT-2 是一个自回归语言模型,可以生成文本¹²³。

显示一串内容是你的代码运行时的输出,它显示了你正在下载两个模型的配置文件和权重文件,以及下载进度和速度⁴⁵。

这些模型会被下载到你的缓存目录中,你可以通过设置 TORCH_HOME 环境变量来指定这个目录³。你也可以用 torch.save() 函数来保存模型的状态字典,这样可以方便地恢复模型²。一般来说,PyTorch 的惯例是用 .pt 或 .pth 文件扩展名来保存模型²。

用find命令也可以查找
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

irrationality

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值