无需 VPN 即可急速下载 huggingface 上的 LLM 模型
无需 VPN 即可急速下载 huggingface 上的 llm 模型
快速下载huggingface模型:
安装依赖
pip install -U huggingface_hub hf_transfer -i https://mirrors.aliyun.com/pypi/simple/
配置
- 在Linux中,执行:
export HF_HUB_ENABLE_HF_TRANSFER=1
export HF_ENDPOINT=https://hf-mirror.com
- 在Windows中,执行:
SET HF_HUB_ENABLE_HF_TRANSFER=1
SET HF_ENDPOINT=https://hf-mirror.com
下载命令
下载 THUDM/chatglm3-6b 模型到本地路径 chatglm3-6b
huggingface-cli download --resume-download THUDM/chatglm3-6b --local-dir chatglm3-6b
示例2:下载 databricks/dolly-v2-3b 模型到本地路径 dolly-v2-3b
huggingface-cli download --resume-download databricks/dolly-v2-3b --local-dir dolly-v2-3b
我的下载速度 8MB/s,非常的快,也无需VPN!!
同样的,可以下载 llama2-7b, qwen1.5-7b …
本文介绍了如何在无需使用VPN的情况下,通过简单的pip安装和环境配置,从HuggingFace上下载预训练的LLM模型,如THUDM/chatglm3-6b和databricks/dolly-v2-3b,下载速度快捷高效。
1万+

被折叠的 条评论
为什么被折叠?



