大语言模型训练与推理模型构建源码解读(huggingface)

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档


前言

我们已搭建了llama训练与推理方法,而llama模型来源huggingface提供。为此,本节来解读huggingface的llma模型训练与推理源码解读。


一、llama训练模型构建源码解读

我还是使用代码说下llama模型或大语言模型是如何调用llama模型,给出其对应构建流程,便于想深究的读者。

1、模型构建代码(自己搭建)

首先是模型搭建,我不在解读,如下代码:

model = AutoModelForCausalLM.from_pretrained(
  model_args.model_name_or_path,
  from_tf
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

tangjunjun-owen

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值