并1. 科学上网,一直连接超时
之前没连远程服务器的时候,科学上网是可以直接下载的,不知道为什么连了autodl上的服务器后一直显示连接超时
2. 换国内镜像
没有用py文件下载,而是直接用的下面的指令,然后再离线加载
这么做的原因:需要用GPU才能跑到下载模型的代码,下载又浪费时间,没办法用无卡模式
pip install -U huggingface_hub
export HF_ENDPOINT=https://hf-mirror.com
huggingface-cli download Salesforce/instructblip-flan-t5-xl \
--local-dir /root/autodl-tmp \
--local-dir-use-symlinks False
注:--resume-download 在较新版本中已默认启用,无需显式指定。
刚开始下载的还行,后面就很慢,干脆想着换个网络,就暂定了,继续用上面的指令时发现出现这样的问题
先用rm -rf /root/autodl-tmp/.cache/huggingface/download/*.lock
rm -rf /root/autodl-tmp/.cache/huggingface/download/*.incomplete
这两个命令删除锁文件和未完成的分片
再用
huggingface-cli download Salesforce/instructblip-flan-t5-xl \
--local-dir /root/autodl-tmp \
--local-dir-use-symlinks False
(可以断点续传)
3. 离线加载总是显示找不到XX文件(真的不知道为什么,明明都是同一个名字),只能在线下载
self.rel_mapper = AutoModel.from_pretrained('jinaai/jina-embeddings-v2-base-en', trust_remote_code=True, cache_dir="/root/autodl-tmp/jinaai", # 强制指定下载路径
local_files_only=False).cuda()
要记得将缓存地址改为数据盘不然会自动下载到系统盘里面并且不要py文件里面写
os.environ["HF_ENDPOINT"] = "https://hf-mirror.com" # 全局生效[1,3,8](@ref)
并没用,直接终端写 export HF_ENDPOINT=https://hf-mirror.com,关闭科学上网,在终端运行指令即可
我还尝试了单独写个py文件
from transformers import AutoModel
model = AutoModel.from_pretrained('jinaai/jina-embeddings-v2-base-en', trust_remote_code=True, cache_dir="/root/autodl-tmp/jinaai")
print(model)
只要没有GPU就出现下面的问题,也是麻了.....
虽然我设置了cache_dir="/root/autodl-tmp/jinaai"但是不知道为什么还是会被下载到默认缓存地址下,只能在终端设置了一下
export TRANSFORMERS_CACHE="/root/autodl-tmp/jinaai"
export HF_HOME="/root/autodl-tmp/jinaai"
也可以写在bashrc文件中,就不用每次启动终端都写了