最新开源:阿里开源QwQ-32B-Preview推理大模型!月之暗面Kimi开源大模型推理架构 Mooncake!阿里开源图像生成模型Qwen2VL-Flux!

来源:HsuDan[最新开源:阿里巴巴开源推理模型 Marco-o1!智子引擎开源多模态MoE大模型 Awaker2.5-VL!]

1. 阿里发布首个开源推理大模型 QwQ-32B-Preview!自我思考、数学能力媲美OpenAI o1

11月28日,阿里Qwen团队发布首个开源推理大模型 QwQ-32B-Preview

QwQ(Qwenwith Questions)是通义千问Qwen系列的最新实验性研究模型,旨在提升 AI 的推理能力QwQ-32B-Preview 在评测数据中表现出色,尤其在数学和编程领域的深度推理任务上,展现出研究生级别的能力。

图片

  • GPQA: 测试模型在常识问答和通用知识理解上的能力。

  • AIME: 检验模型对高难度数学竞赛题目的解题能力。

  • MATH-500: 测评模型在广泛数学领域中解决复杂问题的表现。

  • LiveCodeBench: 测试模型生成、调试和实现代码的编程能力。

具体地,QwQ-32B-Preview 在各项基准测试中的表现如下:

图片

  • 在考察科学问题解决能力的 GPQA 评测集上,QwQ 获得 65.2% 的准确率,具备研究生水平的科学推理能力;

  • 在涵盖综合数学主题的 AIME 评测中,QwQ 以 50% 的胜率证明其拥有解决数学问题的丰富技能;

  • 在全面考察数学解题能力的 MATH-500 评测中,QwQ 斩获 90.6% 的高分,一举超越OpenAI o1-preview 和 o1-mini,体现了在各类数学主题上的全面理解;

  • 在评估高难度代码生成的 LiveCodeBench 评测中,QwQ 答对一半的题,在编程竞赛题场景中也有出色表现。

值得注意的是,QwQ-32B-Preview 是一个模型参数仅有 32B 的小模型!更轻量化的模型意味着更高的计算资源效率、更快的推理速度,以及更低的硬件需求。

作为预览版本,该模型展示了出色的分析能力,但也存在一些重要的局限性,如语言混合递归推理循环以及安全和伦理方面的考虑。该模型在数学和编程方面表现优异,但在常识推理和语言理解方面仍有改进空间

图片

目前,QwQ-32B-Preview 已在魔搭社区和 HuggingFace 等平台上开源。

  • QwQ模型地址:https://huggingface.co/Qwen/QwQ-32B-Preview

  • QwQ体验地址:https://huggingface.co/spaces/Qwen/QwQ-32B-preview

  • QwQ模型链接:https://modelscope.cn/models/Qwen/QwQ-32B-Preview

  • QwQ体验链接:https://modelscope.cn/studios/Qwen/QwQ-32B-preview

  • QwQ中文博客:https://qwenlm.github.io/zh/blog/qwq-32b-preview/

2. 月之暗面Kimi联合清华大学等开源共建大模型推理架构 Mooncake

11月28日,月之暗面 Kimi 联合清华大学等机构,开源了大模型推理架构 Mooncake

在这篇名为《Mooncake: A KVCache-centric Disaggregated Architecture for LLM Serving》的论文中,作者详细介绍了 Mooncake 这种系统架构。

图片

图片

  • 论文链接:https://arxiv.org/pdf/2407.00079

  • 项目地址:https://github.com/kvcache-ai/Mooncake

Mooncake 是由 Moonshot AI 提出的长文高效推理架构,它采用了 KVCache 为中心的分离架构,将预填充和解码集群分开,并利用 GPU 集群中未充分利用的 CPU、DRAM 和 SSD 资源实现分离的 KVCache。

此次更新,开源了 Mooncake 的核心组件 Transfer Engine,还提供了 Transfer Engine 的两个演示:P2P Store 和 vLLM 集成。

图片

图:Mooncake 推理系统架构图

Mooncake 的核心是以 KVCache 为中心的调度程序,在最大化整体有效吞吐量和满足与延迟相关的服务级目标(SLO)之间取得平衡。

Mooncake 不仅提升了 Kimi 的用户体验和降低了成本,还为处理长文本和高并发需求提供了有效的解决方案,承载 Kimi 线上 80% 流量。

3. 阿里开源图像生成模型 Qwen2VL-Flux,支持图像融合和风格转移等

Qwen2VL-Flux 是一款先进的多模态图像生成模型,结合了 FLUX 框架和 Qwen2VL 的视觉语言理解能力。该模型能够根据文本提示和视觉参考生成高质量图像,提供卓越的多模态理解和控制能力。

Qwen2VL-Flux 不仅能够根据用户输入的图像生成多幅相似图像,还支持文本引导的图像混合和图像引导的图像融合。用户可以通过简单的操作实现角色合体、场景转换以及细致的风格迁移。

图片

  • 代码链接:https://github.com/erwold/qwen2vl-flux

  • 模型链接:https://huggingface.co/Djrango/Qwen2vl-Flux

图片

图:Qwen2vl-Flux 框架

Qwen2VL-Flux 有以下特征:

  • 增强视觉语言理解:利用 Qwen2VL 实现卓越的多模式理解;

  • 多种生成模式:支持变异、img2img、修复和控制网引导生成;

  • 结构控制:集成深度估计和线路检测,实现精确的结构引导;

  • 灵活的注意力机制:通过空间注意力控制支持焦点生成;

  • 高分辨率输出:支持高达 1536x1024 的各种宽高比。

图片

图:「图像变化」在保持原始图像本质的同时,创造出多样化的变化。

图片

图:「图像混合」通过智能风格转换无缝融合多幅图像

图片

图:「文本引导的图像混合」通过文本提示控制图像生成

图片

图:「基于网格的风格迁移」应用网格注意力的细粒度样式控制

参考:
https://qwenlm.github.io/zh/blog/qwq-32b-preview/

欢迎各位关注我的个人微信公众号:HsuDan,我将分享更多自己的学习心得、避坑总结、面试经验、AI最新技术资讯。

<think>嗯,用户想了解如何部署qwq-32b模型VLLM平台上。首先,我需要回忆一下VLLM的基本知识。VLLM是一个高效推理和部署框架,支持大规模语言模型,特别是优化了自回归模型推理速度。那部署模型的一般步骤是什么呢?通常需要安装环境、下载模型、配置参数、启动服务。 接下来,用户提到的qwq-32b模型,我需要确认是否有相关的引用信息。查看用户提供的引用内容,引用[1]提到了模型下载的路径,引用[2]和[3]则涉及部署中的注意事项,比如量化版本和tokenizer的问题。特别是引用[3]提到需要修改tokenizer_config.json文件来解决输出问题,这可能是一个关键步骤。 首先,安装VLLM。用户可能需要安装最新版本,使用pip命令。然后,下载模型,根据引用[1]的路径,使用modelscope或者git lfs下载。需要注意模型文件的大小,引用[2]提到量化版本可能更适合消费级显卡,比如4bit的20G版本,这可能影响用户的选择。 然后配置环境,可能需要设置CUDA环境变量。启动服务时,使用vllm的命令行工具,指定模型路径、tensor并行数等参数。如果遇到不输出<think>的问题,引用[3]的解决方法是修改tokenizer配置文件,删除相关token,这需要用户找到对应的json文件进行调整。 还需要考虑硬件要求,比如GPU显存是否足够。如果用户使用消费级显卡,可能需要量化模型,如引用[2]提到的。此外,部署后如何测试服务,比如使用curl或Python客户端发送请求,验证是否正常工作。 可能用户遇到的问题包括模型路径错误、显存不足、tokenizer配置问题等,需要逐一排查。总结步骤应该是:安装依赖→下载模型→调整配置→启动服务→验证测试。同时,提醒用户注意量化版本的选择和可能的配置调整,确保部署顺利。</think>### 分步教程:使用vLLM部署QwQ-32B模型 #### 一、环境准备 1. 安装CUDA驱动 确保显卡驱动支持CUDA 11.8+,通过命令验证: ```bash nvidia-smi ``` 2. 创建虚拟环境(推荐) ```bash conda create -n vllm python=3.9 conda activate vllm ``` #### 二、模型下载 1. 通过ModelScope获取完整模型(需约60GB显存): ```bash pip install modelscope python -c "from modelscope.hub.snapshot_download import snapshot_download; snapshot_download('Qwen/QwQ-32B', cache_dir='./QwQ-32B')" [^1] ``` 2. (可选)下载4bit量化版本(约20GB): ```bash ollama pull QwQ-32B:4bit ``` #### 三、vLLM安装与配置 1. 安装最新vLLM: ```bash pip install vllm ``` 2. 修改tokenizer配置(解决不输出<think>问题): ```bash vim ./QwQ-32B/tokenizer_config.json # 删除"<think>"相关配置项[^3] ``` #### 四、启动推理服务 1. 基础启动命令(需A100 80G*2): ```bash python -m vllm.entrypoints.openai.api_server \ --model ./QwQ-32B \ --tensor-parallel-size 2 \ --gpu-memory-utilization 0.95 ``` 2. 消费级显卡启动(如RTX 3090 24G*2): ```bash python -m vllm.entrypoints.openai.api_server \ --model QwQ-32B:4bit \ --quantization awq \ --dtype half \ --tensor-parallel-size 2 ``` #### 五、服务验证 1. Python客户端测试: ```python from openai import OpenAI client = OpenAI(base_url="http://localhost:8000/v1") response = client.chat.completions.create( model="QwQ-32B", messages=[{"role": "user", "content": "解释量子纠缠"}] ) print(response.choices[0].message.content) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值