linux下如何下载huggingface模型到本地

由于项目需要下载hugginface上的模型:

bge-large-zh-v1.5

使用huggingface-cli 来下载,这个工具是 Hugging Face 官方提供的命令行工具,自带完善的下载功能。

我使用的OS是:CentOS Linux release 7.9.2009 (Core)

具体步骤:

  • 安装huggingface_hub:
pip install huggingface_hub
  • 设置环境变量:(建议写入到.bash_profile中)
export HF_ENDPOINT=https://hf-mirror.com
  • 下载模型:
huggingface-cli download --resume-download BAAI/bge-large-zh-v1.5 --local-dir /models/bge-large-zh-v1.5 --local-dir-use-symlinks False --resume-download

### 下载Hugging Face Transformer模型的方法 在Linux环境中下载Hugging Face的Transformer模型可以通过多种方式实现,以下是两种主要方法: #### 方法一:使用官方命令行工具`huggingface-cli` 为了利用Hugging Face官方提供的命令行工具来管理模型下载过程,可以按照以下方式进行操作。 1. **安装`huggingface_hub`库** 需要先确保Python环境已配置好,并通过pip安装最新的`huggingface_hub`包[^2]。 ```bash pip install -U huggingface_hub ``` 2. **登录到Hugging Face账户(如果需要私有模型)** 如果目标模型是私有的或者受访问权限控制,则需执行登录操作以验证身份。 ```bash huggingface-cli login ``` 此时会提示输入API令牌,可以从个人Hugging Face页面获取该令牌。 3. **下载指定模型** 使用`from_pretrained`函数可以直接加载并缓存远程存储库中的预训练权重文件。例如对于公开可用的BERT-base-uncased模型: ```python from transformers import AutoModel, AutoTokenizer model_name = "bert-base-uncased" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModel.from_pretrained(model_name) ``` 这些代码片段会在后台自动处理依赖关系以及实际数据传输逻辑。 #### 方法二:手动克隆仓库至本地 当遇到网络连接不稳定或其他原因导致无法正常调用在线接口完成下载任务时,可以选择从第三方镜像站点抓取资源副本作为替代方案之一。 1. **选择合适的镜像源地址** 可考虑采用类似于hf-mirror这样的服务提供者所维护的同步版本库链接[^1]。例如针对CodeLlama系列变体之一——CodeLlama-7b-Python-hf的具体实例化表达形式如下所示: ```bash git clone https://hf-mirror.com/codellama/CodeLlama-7b-Python-hf ``` 2. **解压与部署** 成功复制完成后通常还需要进一步提取压缩包内容并将相应目录结构映射给应用程序识别路径下的组件位置参数设置部分加以引用说明即可正常使用这些离线状态保存下来的资产对象了。 --- 以上就是在Linux平台下有效获取来自Hugging Face社区贡献出来的高质量机器学习成果集合里的具体成员单元项目的指导流程概述描述文档正文结束标志符。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值