如何优雅的下载huggingface模型

例如下载llama-2-7b-hf模型

import os
os.environ['HF_ENDPOINT']= 'https://hf-mirror.com'

import huggingface_hub

huggingface_hub.snapshot_download(
            "meta-llama/Llama-2-7b-hf",
            local_dir="models/Llama-2-7b-hf",
            token="你自己在huggingface上的token"
        )
### 下载HuggingFace预训练模型至服务器 为了在服务器上下载来自HuggingFace的预训练模型,有几种方法可供选择。一种方式是在网络环境允许的情况下直接通过API调用完成下载;另一种则是针对可能存在的断网情况提供了解决方案。 对于可以直接访问互联网的情况,可以通过Python脚本利用`transformers`库来获取所需的模型。这通常只需要几行简单的代码就可以实现: ```python from transformers import AutoModel, AutoTokenizer model_name = "bert-base-uncased" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModel.from_pretrained(model_name) ``` 当遇到网络连接不稳定或是被防火墙阻挡等问题时,则建议先手动从[Hugging Face](https://huggingface.co/models)网站下载所需模型文件[^3]。之后按照官方文档说明,在加载模型时指定本地路径作为参数传递给相应的类构造函数[^2]。 另外,考虑到国内用户可能会面临访问速度慢的问题,还可以考虑设置镜像源加速下载过程。具体操作如下所示:首先配置环境变量指向更快捷的服务地址,接着安装最新版本的`huggingface_hub`工具包以便支持新的功能特性,最后使用命令行客户端执行具体的下载任务[^4]。 ```bash export HF_ENDPOINT="https://hf-mirror.com" pip install -U huggingface_hub huggingface-cli download xxxxx/xxxxx --local-dir bloom-560m ``` 上述命令会将名为`xxxxx/xxxxx`的模型保存到当前目录下的`bloom-560m`文件夹内。需要注意的是这里的`xxxxx/xxxxx`应该替换为实际想要下载的具体模型ID。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值