如何从huggingface官网下载模型

何从huggingface官网下载模型
操作步骤:
首先打开huggingface官网:https://huggingface.co/

在这里插入图片描述
进入官网之后,点击“Models",如下图:

 

如果想要下载数据集,则同样的操作方法,点击”Datasets“.
进入”Models“,之后,在搜索框,输入想要download的模型名称。本文示例是:bert-base-cased

在这里插入图片描述

 

找到想要下载的模型,点击进入,出现下面的画面:

在这里插入图片描述

 

点击”Files and versions“,找到自己想要下载的文件即可。
本文的示例可根据实际需求,下载黄色框框的四个文件。也可把Files and versions文件下的文件都下载。
将下载的文件,存放倒一个文件夹,建议文件夹命名为:bert-base-cased

在这里插入图片描述

 

至此,HUggingface官网如何下载模型步骤,大功告成。
 

一起学AI

### 下载 Hugging Face 模型的方法 Hugging Face 提供了 `transformers` 和 `huggingface_hub` 库来简化模型下载与管理。最常用的方式是通过 `from_pretrained()` 方法从 Hugging Face 模型中心拉取模型[^1]。 ```python from transformers import AutoTokenizer, AutoModelForSequenceClassification # 指定模型名称 model_name = "bert-base-uncased" # 下载并加载分词器和模型 tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForSequenceClassification.from_pretrained(model_name) ``` 若需离线使用或手动管理模型文件,可先通过 `huggingface-cli` 登录并下载: ```bash # 登录 Hugging Face 账户(需要访问令牌) huggingface-cli login # 下载模型到本地目录 git lfs install git clone https://huggingface.co/bert-base-uncased ./local_bert_base ``` 之后可在代码中指定本地路径加载模型[^1]: ```python model = AutoModelForSequenceClassification.from_pretrained("./local_bert_base") tokenizer = AutoTokenizer.from_pretrained("./local_bert_base") ``` 对于不支持 `git-lfs` 的环境,也可以使用 `snapshot_download` 从 `huggingface_hub` 直接下载: ```python from huggingface_hub import snapshot_download local_dir = snapshot_download(repo_id="bert-base-uncased", local_dir="./local_model") ``` 此方法支持私有模型下载,只需配置正确的认证令牌[^1]。 ### 缓存机制与路径管理 默认情况下,Hugging Face 将模型缓存在用户目录下的 `~/.cache/huggingface/transformers`(旧版本)或 `~/.cache/huggingface/hub`(新版本)。可通过设置环境变量更改缓存路径: ```bash export TRANSFORMERS_CACHE="/path/to/custom/cache" export HF_HOME="/path/to/hf/home" ``` 在代码中也可通过 `cache_dir` 参数指定缓存位置: ```python model = AutoModelForSequenceClassification.from_pretrained("bert-base-uncased", cache_dir="/your/custom/path") ``` ### 权限与大模型下载 部分模型为私有或需同意使用条款(如 Llama 系列),必须在网站上申请访问权限,并使用 `use_auth_token=True` 或提供 token 字符串进行认证[^1]: ```python from huggingface_hub import login login(token="your_hf_token") # 登录以获取访问权限 model = AutoModelForCausalLM.from_pretrained("meta-llama/Llama-2-7b-chat-hf", use_auth_token=True) ``` 此外,大型模型可能包含多个分片文件,建议使用 `resume_download=True` 避免网络中断导致重新下载: ```python model = AutoModelForCausalLM.from_pretrained("big-model-name", resume_download=True) ```
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

手把手教你学AI

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值