【保姆教学】huggingface_hub 国内高速下载保姆级教学(win和Linux系统,huggingface-cli)

国内镜像地址 hf-mirror.com

huggingface-cli 是 Hugging Face 官方提供的命令行工具,自带完善的下载功能。

  1. 安装依赖
pip install -U huggingface_hub
  1. 设置环境变量Linux
export HF_ENDPOINT=https://hf-mirror.com

Windows Powershell

$env:HF_ENDPOINT = "https://hf-mirror.com"

3.1 下载模型

huggingface-cli download --resume-download *** --local-dir ***

例如

# 模型:stabilityai/stable-diffusion-3-medium 
# 下载文件:text_encoderscl/ip_g.safetensors,text_encoderscl是文件夹
# 下载文件备注:(别忘记在模型后面加个空格在输入需要下载的文件,如果需要整个模型全部下载这个可以不加)
# 命令行当前目录,保存的文件夹名称:sd3
huggingface-cli download --resume-download stabilityai/stable-diffusion-3-medium text_encoderscl/ip_g.safetensors --local-dir sd3

3.2 下载数据集(没试过,需要的自行研究下)

huggingface-cli download --repo-type dataset --resume-download wikitext --local-dir wikitext

部分 Gated Repo 需登录申请许可。为保障账号安全,本站不支持登录,需先前往Hugging Face官网登录、申请许可,在官网这里获取 Access Token 后回镜像站用命令行下载。
请添加图片描述
请添加图片描述

部分工具下载 Gated Repo 的方法:

huggingface-cli download --token hf_*** --resume-download meta-llama/Llama-2-7b-hf --local-dir Llama-2-7b-hf
#示例同上只需要加上token 就可以了
huggingface-cli download --token hf_*** --resume-download stabilityai/stable-diffusion-3-medium text_encoderscl/ip_g.safetensors --local-dir sd3

输入完成后等待下载成功

在这里插入图片描述

官网教程地址:前往

### DeepSeek V3 本地部署文件下载方法 对于希望在本地环境中部署DeepSeek V3模型的情况,可以按照如下方式获取所需文件: #### 使用 Kubernetes Hugging Face 下载模型 当 Pod 启动成功之后,需先进入名为 `prepare` 的容器内部,在此环境内完成后续命令的操作。通过执行特定指令来安装必要的 Python 库并从Hugging Face平台拉取目标AI模型。 ```bash kubectl exec -it $( kubectl get pod -n deepseek | awk 'NR>1 {print $1}' | grep prepare ) bash -n deepseek pip install huggingface_hub huggingface-cli download --resume-download deepseek-ai/DeepSeek-V3 --local-dir /model/deepseek-ai/DeepSeek-V3 ``` 上述脚本实现了进入指定Kubernetes命名空间下的Pod,并在其内部创建交互式的Bash会话;接着利用Python包管理器安装来自[Hugging Face](https://huggingface.co/)社区维护的库以便于处理大型预训练语言模型;最后一步则是调用CLI客户端以断点续传的方式将所需的DeepSeek V3版本存储到指定路径下[^1]。 #### 利用 Docker 构建镜像进行部署 另一种途径是借助Docker技术栈来进行更便捷的一键式构建流程。这种方法通常适用于那些想要快速搭建测试环境或是不具备复杂集群配置条件的研发人员。具体步骤可参照官方文档或其他第三方编写的指南材料,比如一篇题为《DeepSeek本地部署 | 保姆式教程》的文章就提供了详尽指导[^2]。 #### 借助 SGlang 开源框架加速部署过程 除了以上两种常见手段外,还有专门针对高性能计算场景设计的解决方案——SGlang。该工具不仅能够兼容不同类型的图形处理器架构(例如NVIDIA与AMD),而且还能显著提升推理效率。因此如果项目中有特殊需求,则不妨考虑采用这种方式作为备选方案之一[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值