方案一:解决huggingface镜像下载限制,搭建本地镜像缓存服务器

该文章已生成可运行项目,

1. 准备环境

硬件需求
  • 一台服务器,建议使用大容量硬盘以存储模型文件,具体大小取决于需要缓存的模型数量。
  • 推荐使用Ubuntu 20.04或22.04,服务器配置根据需要选择,但要确保有足够的存储空间和网络带宽。
软件需求
  • Python 3.8+:用于运行服务。
  • Docker(可选):可以通过容器化来简化管理。
  • Nginx/Apache:作为静态文件服务器,用于提供模型文件下载。
  • Hugging Face Hub CLI:用于从 Hugging Face 拉取模型。

2. 搭建镜像服务器

2.1 使用 Python HTTP Server 快速搭建

如果你希望快速搭建一个本地镜像服务器,可以通过 Python 自带的 HTTP Server 来托管本地缓存的模型文件。

   1.创建一个模型缓存目录:

mkdir -p /mnt/model_cache

  2.下载 Hugging Face 模型并存放到缓存目录: 可以手动下载 Hugging Face 上的模型,并将其存放在指定目录中,或通过代码自动下载:

from transformers import AutoModel

model_name = "bert-base-uncased"
model = AutoModel.from_pretrained(model_name, cache_dir="/mnt/model
本文章已经生成可运行项目
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值