从huggingface上下载模型/数据集到服务器或者本地

本文讨论了AllenAI发布的OKVQA数据集,该数据集聚焦于知识驱动的自然语言理解任务,旨在评估模型在处理开放领域问题时对现实世界知识的依赖。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. 下载模型

import os
import shutil
from huggingface_hub import snapshot_download

# 直接指定模型和下载路径
model_name = 'openai/clip-vit-base-patch32'
download_path = '/path/to/model/ducumentary'

# 确保下载路径存在
os.makedirs(download_path, exist_ok=True)
print('*'*10, f'Start downloading {model_name}', '*'*10)

# 下载模型
snapshot_download(repo_id=model_name,
                  cache_dir=download_path,
                  local_dir=download_path,
                  local_dir_use_symlinks=False,
                  ignore_patterns=["*.h5","*safetensors","*msgpack"],
                  force_download=True,
                  resume_download=False,
                  etag_timeout=60)


print('*'*10, 'Download finish', '*'*10)

# 清理下载的模型目录
for item in os.listdir(download_path):
    if os.path.isdir(os.path.join(download_path, item)) and item.startswith('models'):
        shutil.rmtree(os.path.join(download_path, item))

2. 下载数据集

from huggingface_hub import snapshot_download

# 设置目标路径
local_dir = "/path/to/dataset/documentary"

# 下载数据集
snapshot_download(
    repo_id="facebook/natural_reasoning",
    repo_type="dataset",
    local_dir=local_dir,
    local_dir_use_symlinks=False,
    resume_download=True
)

3. 具体步骤

  1. 在linux系统,先使用命令行:export HF_ENDPOINT=https://hf-mirror.com
  2. 创建一个目录,用来当模型/数据集,然后修改代码中的路径
  3. 使用命令 nohup python -u download.py>download.log 2>&1 & 让程序在后台运行
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值