HF- Mirror下载Llama3.1

一、在Hugging face官网申请权限

注意地区选择不要选中国!!!

失败经验:选中国区秒被REJECT

再来一次:重新用gmail注册了一个账号,这次选了新加坡,秒accept

如果账号被REJECT,只能重新注册新的账号申请,所以一定要选别的地区!!!

二、创建access token

选择Create new token,自己起一个名字,前面的部分可以不用勾选,Repositories permissions下拉框会出现已经获得授权的模型,选择这个就可以点击Create token

创建好token之后用HF- Mirror相关命令即可下载

### 如何通过 hf-mirror 下载 Llama-2 模型 可以通过 `hf-mirror` 提供的服务来下载 Llama-2 模型及其相关资源。以下是具体实现方式: #### 使用 Python 脚本下载模型 为了确保模型能够被正确识别并存储在指定路径中,可以按照以下脚本操作[^2]。 ```python import os from huggingface_hub import snapshot_download # 设置 Hugging Face 的镜像站点为 hf-mirror os.environ['HF_ENDPOINT'] = 'https://hf-mirror.com' # 定义目标模型仓库 ID 和保存位置 model_repo_id = "TheBloke/Llama-2-7B-GGML" file_pattern = ["llama-2-7b.ggmlv3.q4_0.bin"] # 开始下载第一个模型文件 snapshot_download(repo_id=model_repo_id, allow_patterns=file_pattern) # 如果需要额外的 tokenizer 或其他组件,可继续调用此函数 additional_model_repo_id = "hf-internal-testing/llama-tokenizer" snapshot_download(repo_id=additional_model_repo_id) ``` 上述代码片段设置了环境变量 `HF_ENDPOINT` 来指向 `hf-mirror` 并利用 `snapshot_download` 函数完成模型文件的下载工作。 #### 配置 HF_HOME 环境变量 为了避免因默认缓存目录不足而导致的磁盘空间耗尽问题,建议配置 `HF_HOME` 变量以更改模型存储的位置。 ```bash export HF_HOME=/path/to/custom/directory/hf_cache ``` 执行以上命令后,在运行 Python 脚本时会自动将模型文件存储至自定义路径 `/path/to/custom/directory/hf_cache` 中。 #### 利用 CLI 工具手动获取模型 如果更倾向于使用命令行工具,则可通过安装 `huggingface-cli` 实现相同功能[^3]。 1. **安装依赖** ```bash pip install huggingface-hub ``` 2. **登录账户** 登录到 Hugging Face 帐号以便访问受保护的内容。 ```bash huggingface-cli login --token YOUR_ACCESS_TOKEN ``` 3. **下载模型** 输入如下指令即可启动模型下载过程。 ```bash huggingface-cli download TheBloke/Llama-2-7B-GGML llama-2-7b.ggmlv3.q4_0.bin ``` 注意:当涉及私有或受限权限模型时,需提前创建个人令牌并通过参数传递给客户端程序[^4]。 --- #### 注意事项 尽管提供了多种途径用于加速和简化模型获取流程,但在实际应用过程中仍需要注意网络状况以及本地存储容量等因素的影响。此外,对于某些特定版本或者变体形式(如量化版),可能还需要进一步确认其兼容性和适用范围。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值