阿里云 AI 搜索开放平台新发布:增加 QwQ 模型

为了满足用户对更高效、更智能搜索功能的需求,阿里云 AI 搜索开放平台 新增加 QwQ 模型,这一全新模型的加入将为企业和开发者带来更强大的搜索解决方案。

一、QwQ模型

开源版:

基于 Qwen2.5-32B 模型训练的 QwQ 推理模型,于2025年3月6日发布。通过强化学习大幅度提升了模型推理能力。模型数学代码等核心指标(AIME 24/25、LiveCodeBench)以及部分通用指标(IFEval、LiveBench等)达到DeepSeek-R1 满血版水平,各指标均显著超过同样基于 Qwen2.5-32B 的 DeepSeek-R1-Distill-Qwen-32B。

二、如何体验QwQ模型

两步即可体验新模型:

  • 选择qwq模型,同时可输出深度思考内容。

参考文档:QwQ 模型的用法_大模型服务平台百炼(Model Studio)-阿里云帮助中心

三、计费方式

计费项:按照 实际消耗的输入/输出token数

  • text-generation/qwq-32b/input_token

  • text-generation/qwq-32b/output_token

阿里云 AI 搜索开放平台的 QwQ 模型功能的加入,将为企业和开发者提供了更强大、更智能的搜索解决方案。通过深度结合大语言模型和联网搜索技术,为用户提供更优质的技术支持和服务,助力您的业务迈向新的高度。

查看详情AI 搜索开放平台_RAG_大模型_阿里云

立即开通https://common-buy.aliyun.com

### QwQ-32B 模型部署方法详解 #### 1. 环境准备 为了成功部署 QwQ-32B 模型,首先需要确保基础环境满足最低需求。该模型支持消费级硬件运行,推荐使用 NVIDIA RTX 3060 或更高显卡,至少具备 16GB 显存[^2]。 安装必要的依赖库和框架是关键步骤之一。以下是所需的主要软件包及其版本建议: ```bash pip install torch==2.0.0 torchvision transformers accelerate bitsandbytes ``` #### 2. 数据集与权重下载 QwQ-32B 的预训练权重可以通过官方渠道获取。由于其采用 Apache 2.0 开源协议,允许自由用于商业场景。具体操作如下: 访问阿里云官网或指定存储仓库链接,完成账号验证后即可下载对应文件夹中的 `.bin` 文件集合以及配置说明文档 `config.json` 和词表文件 `vocab.txt`。 #### 3. 使用 Ollama 工具简化流程 对于希望快速上手的开发者而言,可以借助第三方工具 **Ollama** 实现一键式部署体验。它能够自动处理大部分复杂设置工作,并提供友好的命令行界面交互方式[^3]。 执行以下指令初始化项目目录并加载目标架构实例: ```bash ollama pull qwq-32b ollama run --model qwq-32b ``` #### 4. 测试功能模块 启动服务端口监听之后,可通过 REST API 接口调用来检验各项子任务效果,比如自然语言理解、多轮对话管理或者程序脚本生成等功能点的表现情况。下面给出一段 Python 示例代码片段展示如何发起请求: ```python import requests url = "http://localhost:11434/api/generate" payload = {"prompt": "编写一个简单的计算器函数"} response = requests.post(url, json=payload) print(response.text) ``` ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值