Qwen-WisdomVast (千问-智瀚)

请添加图片描述

请添加图片描述

介绍

Qwen-WisdomVast以Qwen1.5-7B为底座,使用 DORA + LORA+ 的训练方法,在100w高质量中文多轮SFT数据 + 20w英文多轮SFT数据 + 2000单轮自我认知数据训练而来的大模型,数学能力相比Qwen1.5-7B-Chat提升了5.16%,在HumanEval数据集上相比Qwen1.5-7B-Chat提升了12.8,在MBPP数据集上提升了11.6%,在BBH数据集上提升了12.44%,全部评测表现见下表。

Github: https://github.com/seanzhang-zhichen/Qwen-WisdomVast

评测表现

ModelMMLUC-EvalGSM8KMATHHumanEvalMBPPBBH
Qwen1.5-7B-Chat60.8870.1854.137.9631.1015.0031.67
Qwen-WisdomVast57.0970.8251.9313.1243.9026.6044.11

说明:

由于官方并未公布Qwen1.5-7B-Chat的评测表现,所以我们自己使用opencompass测试得到以上结果

Qwen-WisdomVast使用和Qwen1.5-7B-Chat一样的参数进行测试

模型下载

ModelDownload
Qwen1.5-7B 🤗 HuggingFace 🤖 ModelScope
Qwen-WisdomVast-Lora 🤗 HuggingFace 🤖 ModelScope
Qwen-WisdomVast (合并好的模型) 🤗 HuggingFace 🤖 ModelScope

合并LORA模型(可跳过)

1、下载 Qwen1.5-7B

git clone https://www.modelscope.cn/qwen/Qwen1.5-7B.git

2、下载Qwen-WisdomVast-Lora

From ModelScope

git lfs install
git clone https://www.modelscope.cn/seanzhang/Qwen-WisdomVast-Lora.git

From HuggingFace

git lfs install
git clone https://huggingface.co/zhichen/Qwen-WisdomVast-Lora

3、合并模型

python merge_lora.py \
    --base_model path/to/qwen/Qwen1.5-7B \
    --lora_model path/to/lora/Qwen-WisdomVast-Lora \
    --output_dir ./Qwen-WisdomVast

下载 Qwen-WisdomVast(合并好的模型)

From ModelScope

git lfs install
git clone https://www.modelscope.cn/seanzhang/Qwen-WisdomVast.git

From HuggingFace

git lfs install
git clone https://huggingface.co/zhichen/Qwen-WisdomVast

命令行推理

python cli_demo.py  --model_path ./Qwen-WisdomVast(换成你自己的合并后的模型路径)

web 推理

python web_demo.py  --model_path ./Qwen-WisdomVast(换成你自己的合并后的模型路径)

vllm web 推理

1、使用vllm部署模型

python -m vllm.entrypoints.openai.api_server --served-model-name Qwen-WisdomVast --model ./Qwen-WisdomVast(换成你自己的合并后的模型路径)

2、在命令行执行

python vllm_web_demo.py --model Qwen-WisdomVast 

复现测试结果

1、使用vllm部署openai api server

部署命令:

python -m vllm.entrypoints.openai.api_server --served-model-name Qwen-WisdomVast --model ./Qwen-WisdomVast(换成你自己的合并后的模型路径)

2、使用opencompass框架进行测试

参考:使用opencompass验证模型效果

按照以上文章修改好后,将eval_qwen_wisdomvast.py文件到 opencompass/configs文件夹下

3、执行测试脚本

python run.py configs/eval_qwen_wisdomvast.py  -w outputs/Qwen-WisdomVast

LICENSE

本项目仅可应用于研究目的,项目开发者不承担任何因使用本项目(包含但不限于数据、模型、代码等)导致的危害或损失。详细请参考免责声明

Qwen-WisdomVast项目代码的授权协议为 The Apache License 2.0,代码可免费用做商业用途,模型权重和数据只能用于研究目的。请在产品说明中附加Qwen-WisdomVast的链接和授权协议。

### Qwen-VL-72B 和 Qwen-VL-Max 的特性比较 #### 参数规模与模型架构 Qwen-VL-72B 是一款拥有 720亿参数的大规模多模态预训练模型,专为处理复杂的视觉和语言联合任务而设计[^1]。相比之下,Qwen-VL-Max 虽然具体参数量未公开,但从名称推测其可能代表了一个更为优化或改进版本,在某些特定场景下具备更优性能。 #### 处理能力对比 对于建模方面的挑战——即面对差异很大的视觉任务(包括不同类型输入的任务、不同粒度的任务以及格式各异的输出),Qwen-VL-72B 凭借庞大的参数量能够更好地捕捉复杂模式并适应多种类型的输入数据。然而,Qwen-VL-Max 可能在效率上有所提升,通过算法上的创新减少计算资源消耗的同时保持甚至提高准确性。 #### 数据需求分析 考虑到标注成本差异大且粒度和语义各异的数据集特点,Qwen-VL-72B 需要依赖大量高质量标记样本进行有效学习;而对于收集图像成本高且数量有限的情况,则显示出一定局限性。相反,Qwen-VL-Max 或者引入了新的机制来缓解这些题,比如增强自监督学习的能力或是利用迁移学习技术从其他领域获取有用信息补充当前任务所需的知识。 ```python # Python伪代码展示如何加载这两个模型 from transformers import AutoModelForVisionToText, AutoTokenizer def load_model(model_name): tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForVisionToText.from_pretrained(model_name) return model, tokenizer qwen_vl_72b_model, qwen_vl_72b_tokenizer = load_model('qwen-vl-72b') qwen_vl_max_model, qwen_vl_max_tokenizer = load_model('qwen-vl-max') ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

ToTensor

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值