【大模型】 端侧大模型 Qwen/Qwen2.5-1.5B-Instruct

Qwen2.5-1.5B-Instruct 模型介绍

就 Qwen2.5 语言模型而言,所有模型都在我们最新的大规模数据集上进行了预训练,该数据集包含多达 18T tokens。相较于 Qwen2,Qwen2.5 获得了显著更多的知识(MMLU:85+),并在编程能力(HumanEval 85+)和数学能力(MATH 80+)方面有了大幅提升。此外,新模型在指令执行、生成长文本(超过 8K 标记)、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。 Qwen2.5 模型总体上对各种system prompt更具适应性,增强了角色扮演实现和聊天机器人的条件设置功能。与 Qwen2 类似,Qwen2.5 语言模型支持高达 128K tokens,并能生成最多 8K tokens的内容。它们同样保持了对包括中文、英文、法文、西班牙文、葡萄牙文、德文、意大利文、俄文、日文、韩文、越南文、泰文、阿拉伯文等 29 种以上语言的支持。 我们在下表中提供了有关模型的基本信息。

Qwen2.5-1.5B-Instruct 模型特征:

  • Type: Causal Language Models
  • Training Stage: Pretraining & Post-training
  • Architecture: transformers with RoPE, SwiGLU, RMSNorm, Attention QKV bias and tied word embeddings
  • Number of Parameters: 1.54B
  • Number of Paramaters (Non-Embedding): 1.31B
  • Number of Layers: 28
  • Number of Attention Heads (GQA): 12 for Q and 2 for KV
  • Context Length: Full 32,768 tokens and generation 8192 tokens

发布时间

2024年9月份

模型测评

  • Qwen2.5-0.5B/1.5B/3B 表现:

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

  • Qwen2.5-0.5B/1.5B-Instruct 表现:

在这里插入图片描述

推理性能

在这里插入图片描述
在这里插入图片描述

运行环境安装

pip install transformers==4.45.2

运行模型

  • with transformers:
from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "Qwen/Qwen2.5-1.5B-Instruct"

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype="auto",
    device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)

prompt = "Give me a short introduction to large language model."
messages = [
    {"role": "system", "content": "You are Qwen, created by Alibaba Cloud. You are a helpful assistant."},
    {"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)

generated_ids = model.generate(
    **model_inputs,
    max_new_tokens=512
)
generated_ids = [
    output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]

response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]

下载

model_id: Qwen/Qwen2.5-1.5B-Instruct
下载地址:https://hf-mirror.com/Qwen/Qwen2-VL-2B-Instruct 不需要翻墙

开源协议

License: apache-2.0

参考

<think>嗯,用户想查询Qwen/Qwen2.5-0.5b-instruct模型的具体信息和使用方法。首先,我需要回忆一下之前提供的引用内容,看看有没有相关的资料。引用2提到了SFT案例实操,里面有关于qwen2.5-0.5b-instruct的合并和使用的代码示例。引用3则提到了这个模型在法律领域的微调应用。不过用户的问题比较基础,主要是介绍和使用方法,还有下载步骤。 首先,我应该先介绍模型的基本情况,比如参数规模、适用场景等。Qwen2.5-0.5B-Instruct是一个小型化的指令微调模型,适用于资源受限的环境。然后使用方法部分,需要分步骤说明,比如环境准备、模型加载、输入格式的注意事项。这里可以引用引用2中的代码示例,展示如何通过Hugging Face的pipeline来使用模型,但需要确保代码正确,并且符合用户可能的实际应用场景。 下载方法方面,用户可能想知道如何从Hugging Face Hub获取模型。引用1提到使用huggingface-cli下载,但那个是针对VL模型的,不过方法类似。所以需要调整命令,换成Qwen2.5-0.5B-Incorrect的路径。注意要提醒用户可能需要登录Hugging Face账户,特别是如果模型是gated的话。 另外,用户可能对微调或部署感兴趣,但问题里没有明确提到。不过根据引用3,可以补充一些应用场景,比如法律领域的微调,或者企业数据开发,但需要说明这些是扩展应用,可能需要额外步骤。 需要注意用户可能遇到的常见问题,比如输入格式是否正确,是否需要特定的库版本,或者硬件要求。例如,是否需要GPU,或者能否在CPU上运行。同时,要提到模型可能需要的依赖,比如transformers、torch等,并建议使用最新版本。 可能还需要对比不同下载方式,比如使用git-lfs或者huggingface-cli,但用户问题中的引用1用了HF_HUB_ENABLE_HF_TRANSFER=1的参数,这可能加速下载,所以可以建议用户参考这个设置。 最后,生成相关问题时要考虑用户可能的后续需求,比如如何微调、优化性能,或者部署到生产环境,这些问题可以引导用户进一步探索。</think>### Qwen/Qwen2.5-0.5B-Instruct 模型介绍 Qwen2.5-0.5B-Instruct 是阿里云推出的开源指令微调语言模型,参数规模为5亿(0.5B),属于轻量级模型。特点包括: 1. **指令优化**:专为对话场景设计,支持多轮交互 2. **中文适配**:在中文语料上表现优异,支持中英文混合任务 3. **资源友好**:适合算力有限的本地部署场景 4. **可扩展性**:支持LoRA等参数高效微调方法[^2][^3] --- ### 使用方法(以Hugging Face生态为例) #### 1. 环境准备 ```bash pip install transformers torch ``` #### 2. 基础调用示例 ```python from transformers import AutoModelForCausalLM, AutoTokenizer model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen2.5-0.5B-Instruct", device_map="auto") tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen2.5-0.5B-Instruct") prompt = """<|im_start|>system 你是一个AI助手<|im_end|> <|im_start|>user 如何煮鸡蛋?<|im_end|> <|im_start|>assistant """ inputs = tokenizer(prompt, return_tensors="pt").to(model.device) outputs = model.generate(**inputs, max_new_tokens=100) print(tokenizer.decode(outputs[0])) ``` #### 3. 输入格式注意 必须遵循特殊标记格式: ```text <|im_start|>[role] [content] <|im_end|> ``` 其中`role`可为`system/user/assistant`[^2] --- ### 下载方法 #### 通过Hugging Face CLI ```bash huggingface-cli download Qwen/Qwen2.5-0.5B-Instruct ``` #### 加速下载(推荐) ```bash HF_HUB_ENABLE_HF_TRANSFER=1 huggingface-cli download Qwen/Qwen2.5-0.5B-Instruct ``` --- ### 高级应用 1. **微调适配**:参考PEFT库实现参数高效微调 ```python from peft import LoraConfig, get_peft_model lora_config = LoraConfig( r=8, target_modules=["q_proj", "v_proj"], task_type="CAUSAL_LM" ) model = get_peft_model(model, lora_config) ``` 2. **部署优化**:可结合vLLM框架提升推理效率[^1] --- ### 注意事项 1. 需要至少4GB显存(FP16精度) 2. 建议使用transformers>=4.35.0 3. 完整功能需要信任远程代码执行(添加`trust_remote_code=True`参数) ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

szZack

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值