之前我们提到过Docker镜像的加速,帮助程序员朋友拉取镜像,收到了不少朋友的好评,我们现在再推出一项新的免费功能——HuggXXXFace大模型文件下载加速,帮助AI领域的朋友拉取大模型文件。
我们将这一系列加速功能做成一个开发者加速,有需要的朋友可以搜索比扬云公众号了解更多
HuggXXXFace的大模型仓库少则几个G,大则几十个G,拉取非常占用带宽,是AI工程师非常头疼的一件事,我们这篇文章只讲怎么用,那我们接下来开始吧。
本文所涉及的加速地址会不定期更新
加速地址
我们会对外披露一个加速地址,您在下载大模型的时候只需要将huggxxxface.co
替换成https://941d6f42d2de499aab528fc69516331c.hf.1.mirror.gipa.link:9043
就可以。
需要注意的是,为了防止被过度使(白)用(嫖),下载地址会不定期更换。
使用方式1:使用huggingface-cli
1. 设置环境变量
Linux: export HF_ENDPOINT="https://941d6f42d2de499aab528fc69516331c.hf.1.mirror.gipa.link:9043"
Windows: $env:HF_ENDPOINT="https://941d6f42d2de499aab528fc69516331c.hf.1.mirror.gipa.link:9043"
2. huggingface-cli 命令下载文件,以Qwen为例子
huggingface-cli download --resume-download Qwen/Qwen2.5-Coder-32B-Instruct --local-dir Qwen2.5
使用方式2:直接浏览器下载
适用于单个文件的下载
浏览器打开页面: https://941d6f42d2de499aab528fc69516331c.hf.1.mirror.gipa.link:9043 进入到希望下载的模型,选择Files and versions,下载对应的文件即可
下载前建议先关闭代理软件,避免代理影响下载速度
关于大模型文件下载的使用方式就分享这么多,希望能帮到有需要的朋友。