一文搞定llama在linux的下载(huggingface版,使用镜像)

部署运行你感兴趣的模型镜像

下载Llama需要两步走

  • 申请参数
  • 下载模型

申请参数

首先我在github上找到llama项目,链接:Llama3
权限申请我推荐使用huggingface。这是因为用meta llama官网申请的时候,我把信息都填好了,结果按accept and continue它没动静。但huggingface申请参数就很顺利。

我们在huggingface上找到了meta-llama项目,找到我们要下载的模型:比如Llama-3.2-1B

我们需要注册才能下载模型:
在这里插入图片描述

注册完了以后填信息,注意这里有个坑。这个table填China是批准不了的,可以天别的国家(学校等可以填别的国家的学校),邮箱我用的是个人邮箱。

在这里插入图片描述

填完了以后它审批好会发邮件给你(huggingface注册用的邮箱)这个时候你就能下载了。

下载模型

  1. huggingface access token
    在这里插入图片描述
    创建token,token是write类别,然后把api key复制下来

  2. 设置镜像源 (可以将它写入~/.bashrc)

# 这个是设置镜像源的环境变量,建议将上面这一行写入 ~/.bashrc。若没有写入,则每次下载时都需要先输入该命令
export HF_ENDPOINT=https://hf-mirror.com 
  1. linux登录huggingface:
    这里我用的是huggingface-hub==0.23.4
    如果没有install的可以pip install 一下
huggingface-cli login
之后输入你的api key,你就成功登录了
  1. 用命令行进行下载
huggingface-cli download --resume-download meta-llama/Llama-3.2-1B --local-dir meta-llama/Llama-3.2-1B
# local dir代表本地存储的位置

参考链接:
api key的获取
huggingface login 的方式
国内镜像源使用方法
huggingface申请方法借鉴

您可能感兴趣的与本文相关的镜像

ACE-Step

ACE-Step

音乐合成
ACE-Step

ACE-Step是由中国团队阶跃星辰(StepFun)与ACE Studio联手打造的开源音乐生成模型。 它拥有3.5B参数量,支持快速高质量生成、强可控性和易于拓展的特点。 最厉害的是,它可以生成多种语言的歌曲,包括但不限于中文、英文、日文等19种语言

### 如何在Linux上部署Llama2模型 为了在Linux环境中成功部署Llama2模型,可以遵循一系列特定的操作流程来确保顺利安装和配置环境。这通常涉及克隆必要的仓库、准备依赖项以及执行转换脚本来适配权重文件。 #### 准备工作 首先,在目标机器上创建一个新的虚拟环境并激活它: ```bash python3 -m venv llama_env source llama_env/bin/activate ``` 接着按照官方指南获取`transformers`库源码,并完成初步设置[^3]: ```bash git clone https://github.com/huggingface/transformers.git cd transformers pip install . ``` #### 安装额外依赖包 由于部分功能可能需要特殊的支持库,因此还需要单独安装这些工具,比如用于处理协议缓冲区数据格式的`protobuf`: ```bash pip install protobuf ``` #### 转换原始参数至兼容本 对于来自第三方渠道下载得到的预训练权重,需通过专门编写的Python脚本将其调整成适合Hugging Face框架使用的格式。此过程涉及到指定输入路径(即存放原生权值的位置)、模型尺寸选项(如7B, 13B等),还有最终保存位置三个要素: ```bash python src/transformers/models/llama/convert_llama_weights_to_hf.py \ --input_dir /path/to/downloaded/llama/weights --model_size 7B --output_dir ./converted_model/ ``` #### 加载与推理测试 一旦上述准备工作全部就绪,则可以通过加载已转换好的本地模型来进行简单的预测尝试。下面给出了一段简短的例子展示如何实现这一点: ```python from transformers import AutoModelForCausalLM, AutoTokenizer tokenizer = AutoTokenizer.from_pretrained("./converted_model/") model = AutoModelForCausalLM.from_pretrained("./converted_model/") text = "Once upon a time" inputs = tokenizer(text, return_tensors="pt").to(model.device) outputs = model.generate(**inputs) print(tokenizer.decode(outputs[0], skip_special_tokens=True)) ``` 以上步骤概括了基于Hugging Face Transformers库在Linux平台上部署Llama2模型的主要环节。值得注意的是实际操作过程中可能会遇到各种各样的挑战,建议参考官方文档或其他社区资源寻求帮助和支持。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值