阿里最新qwq部署 体验吊打deepseek的小而美模型

昨夜春风吹碧树,阿里 Qwen(千问)团队发布并开源了一个“小而美”的推理模型:QwQ-32B。朋友圈刚炸,凌晨工作群接着敲
在这里插入图片描述
本着工作是老板的,粉丝是自己的第一性原则,先给大家分享下体验感受

这个模型凭借其“娇小的身材”——32B 参数,即320亿,及其媲美大参数模型的性能——比如满血版 DeepSeek-R1,迅速走红。

截至写这篇文章,Qwen 的官宣帖阅读数已超过170万。

image

32B 这么小的参数量是什么概念?

意味着这个模型能够直接在消费级显卡上跑起来,比如英伟达的 RTX 3090和4090。具体说来,拥有 24 GB 显存的 GPU 即可以全精度运行 QwQ-32B 完整版模型。

相较于 DeepSeek-R1,它的满血版可是有 671B(6710亿)参数,约为 QwQ-32B 的20倍。同样的硬件配置,只能跑得起 DeepSeek-R1 的 32B 蒸馏小模型。

更详细的硬件配置需求,可以参考下面的这个表格自查。

image
而通过 Qwen 团队公布的 QwQ-32B 模型基准测试结果,在数学、代码方面完全可以不输于满血版的 DeepSeek-R1

具体看下图,红色柱是 QwQ-32B 的分数,蓝色柱是满血版 DeepSeek-R1 的得分。

image
但值得一提的是,虽然说 QwQ-32B 实力不俗,但要让它真正和满血版 DeepSeek-R1 在各方面大战一场,那必定是打不过的。连 Qwen 官方用的词都是“媲美”,这就能说明情况了吧。

之前曾出过一期教程:[Deepseek+Ollama 从入门到精通之本地部署deepseek],其中详细介绍了如何在本地电脑上部署各个小参数的蒸馏版 DeepSeek-R1

现在,有了 QwQ-32B,这些蒸馏版模型可以彻底下岗了,毕竟参数又小,性能又强劲,何乐而不为。

部署方法大同小异,因为就在刚刚,Ollama 也添加了对 QwQ-32B 的支持。

image

第1步:安装 Ollama

官网安装,命令行安装都可以。

https://ollama.com/

image
安装完成后,打开 终端 运行下面的命令。正常来说会输出Ollama的版本号,如“ollama version is 0.5.7”。

# 验证安装
ollama --version

第2步:下载 QwQ-32B 模型

QwQ-32B 模型参数约 32.8B,使用 Q4_K_M 量化版本,模型文件约 20GB,Apache 2.0 开源证书。

# 下载 QwQ-32B
ollama pull qwq

image
下载完成后,可以用下面这条命令验证模型,该命令会输出你通过 Ollama 安装的模型。如果一切正常,qwq 应该出现在输出列表中。

# 验证模型
ollama list

第3步:运行 QwQ-32B 模型

如果是通过客户端安装 Ollama,模型安装好后会自动进入交互式会话模式,此时你就可以和模型聊天了!

如果没有进入会话模式,用下面的命令启动模型。

# 运行模型
ollama run qwq

当然,也可以选择在第三方客户端里使用这个本地模型,比如

  • page assit
  • Chatbox,详情参考上一篇本地部署教程。
    https://chatboxai.app/zh

image

如果你只是想单纯的使用这个模型,那么在 Qwen Chat 里或者 Hugging Face 里有现成的 QwQ-32B 可以使用。

  • Qwen Chat(通义千问海外版) :https://chat.qwen.ai
  • Hugging Face Demo :https://huggingface.co/spaces/Qwen/QwQ-32B-Demo
  • Hugging Face QwQ-32B 模型首页 :https://huggingface.co/Qwen/QwQ-32B
### 部署QwQ-32B模型于NVIDIA Quadro M6000 24GB显存GPU #### 准备工作环境 为了成功部署QwQ-32B模型,确保操作系统和硬件配置满足最低需求。对于Windows环境下基于X99平台的NVIDIA Quadro M6000显卡,建议先更新至最新的驱动版本以获得最佳性能和支持[^2]。 #### 安装必要的软件包 1. **CUDA Toolkit**: QwQ-32B依赖于CUDA进行高效的并行计算操作。安装适用于NVIDIA Quadro M6000 (GM200架构) 的最新稳定版CUDA工具包[^1]。 2. **cuDNN Library**: 加速深度神经网络运算效率,下载对应CUDA版本的cuDNN库文件,并按照官方指南完成设置。 #### 构建运行框架 选择合适的本地大语言模型运行框架至关重要。考虑到资源消耗与兼容性因素: - 推荐采用Ollama作为主要执行引擎,其具备良好的社区支持及优化特性; - 同时集成AnythingLLM图形化前端以便更直观地管理和交互调用API接口[^3]。 #### 调整参数适配硬件条件 由于QwQ-32B属于大型预训练模型之一,可能占用较多内存空间。针对仅拥有24GB VRAM容量的情况,可以考虑采取如下措施来缓解潜在瓶颈: - 设置较低batch size减少单次前向传播所需临时存储量; - 利用混合精度浮点数表示法(FP16),既可加快速度又能节省一半以上的显存开销; - 如果仍然遇到不足,则尝试启用磁盘交换机制或者分布式多设备协同处理方式分担负载压力。 ```python import torch device = 'cuda' if torch.cuda.is_available() else 'cpu' model = ModelClass.from_pretrained('path/to/qwq-32b').half().to(device) tokenizer = TokenizerClass.from_pretrained('path/to/tokenizer') with torch.no_grad(): inputs = tokenizer("输入文本", return_tensors="pt").to(device) outputs = model.generate(**inputs, max_length=50, num_beams=4) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

赤胜骄阳

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值