24、Ray AI 库:从训练到部署的一站式解决方案

Ray AI 库:从训练到部署的一站式解决方案

1. 训练加速与批量推理

在深度学习训练中,我们可以通过增加工作节点来扩大有效批量大小,从而减少训练完成时间。虽然由于通信开销,训练加速并非线性,但在实践中往往接近线性。例如,处理后的莎士比亚数据集共有 1348 个样本,每个设备的批量大小设为 16。使用 16 个 AWS 的 g4dn.4xlarge 工作节点时,有效批量大小为 256,每个 epoch 相当于 85 步,包括初始化在内,一个 epoch 大约需要 2440 秒。而使用 32 个节点时,有效批量大小为 512,每个 epoch 为 43 步,运行时间约为 1280 秒。如果在单个 GPU 上本地运行,有效批量大小会相应降低,训练速度也会成比例下降。

以下是使用训练好的模型根据提示生成文本的代码示例:

from transformers import pipeline, AutoTokenizer, GPTJForCausalLM
model = GPTJForCausalLM.from_pretrained("/local/checkpoint") 
tokenizer = AutoTokenizer.from_pretrained("/local/checkpoint")
pipe = pipeline(
    model=model,
    tokenizer=tokenizer, 
    task="text-generation", 
    torch_dtype=torch.float16, 
    device_map="auto",
)
# Generate from promp
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值