Qwen3震撼发布,用openGauss x Dify抢先体验,秒速搭建智能知识库

2025年4月29日,阿里巴巴正式发布新一代通义千问大模型Qwen3系列,以混合专家架构(MoE)与混合推理模式为核心突破,刷新全球开源大模型性能纪录。Qwen3系列包含两大分支:

  1. Qwen3模型:覆盖0.6B、1.7B、4B、8B、14B、30B、32B、235B全尺寸,其中Qwen3-4B性能直逼前代72B模型;

  2. Qwen3-MoE模型:包含30B-A3B(激活参数量3B)、235B-A22B(激活参数量22B)等版本,以10%激活参数实现超越同规模密集模型的性能,推理成本仅为DeepSeek-R1的1/3。

Qwen3的核心技术亮点包括

  • 混合推理模式:支持动态切换“深度思考”(复杂问题多步推理)与“快速响应”(简单任务秒级回复),算力消耗最高降低90%;

  • 性能全面领先:在AIME'24数学评测中斩获85.7分,LiveCodeBench v5代码测试突破70.7分,超越Grok-3与Gemini-2.5-Pro,登顶全球开源模型榜首;

  • 多模态与多语言支持:覆盖119种语言,集成视觉理解能力,适配医疗诊断、工业质检等跨模态场景。


在Qwen3发布后,openGauss团队联合鲲鹏社区第一时间完成基于Qwen3的RAG解决方案全链路验证,这意味着开发者现在就可以一键拉起基于openGauss的编排组件容器镜像,并利用Qwen3实现畅快的RAG知识问答及推理。

图片

快速体验Qwen3

体验之前,您需确认ollama已正确安装并启动,可运行如下命令确认:

ollama list

您可以使用如下命令,一键拉起Qwen3大模型:

ollama run qwen3:latest

模型服务起来之后,您可以直接进行问答体验最新版Qwen3,推理结果如下:

图片

搭建openGauss知识库

请提前安装好Docker Compose软件,如未安装请按照下面描述进行离线安装。

Docker Compose软件安装

下载Docker Compose软件包。

wget https://github.com/docker/compose/releases/download/v2.33.1/docker-compose-linux-aarch64

安装Docker Compose。

mv docker-compose-linux-aarch64 /usr/bin/docker-composechmod +x /usr/bin/docker-compose
编排组件部署

1.下载Dify 1.1.3软件包。 访问链接https://github.com/langgenius/dify/tree/1.1.3,然后如下图所示,直接“Download ZIP”下载压缩包并上传到服务器。

图片

2.创建目录并解压。​​​​​​​

mkdir /usr/local/difyunzip dify-1.1.3.zip -d /usr/local/dify/cd /usr/local/dify/dify-1.1.3

3.解压软件包并进到Dify源码目录,执行下面的命令进行安装部署。​​​​​​​

cd dockercp .env.example .envvim .env

修改.env第387行为:VECTORE_STORE=opengauss

图片

4.以后台模式运行服务。 命令会在线下载Docker镜像并启动对应的服务,需等待30分钟左右,实际时间根据网络情况而定。该命令会自动拉起openGauss服务,无需手动部署。

docker-compose up -d

在线问答

1.访问本地部署的Dify web服务页面。

http://your_server_ip

2.创建一个管理员账户。输入邮箱和密码即可创建。

3.接入LLM服务。 在主界面点击右上角用户名,然后点击“设置”进入设置页面,单击“模型供应商”,选择“Ollama”卡片,单击“安装”按钮。

图片

安装完成后,在添加模型页面,“模型类型”选择“LLM”,配置Qwen3模型。

图片

4.接入Embedding服务。 在添加模型页面,“模型类型”选择“Text Embedding”,

图片

5.创建应用。 轻点Dify平台首页左侧的“创建空白应用”,选择“聊天助手”类型应用并进行简单的命名。

图片

6.选择LLM模型。 单击右上角“模型”选择下拉框,选择qwen3模型。

图片

7.对话互动。 配置完成后即可在聊天框中进行互动。输入“xx时尚公司经营范围有哪些”,输出如下所示,即完成了一次对话互动。本次对话还未使用RAG功能,如果需要使能RAG则该聊天助手应用需要关联知识库,具体的操作参考下面“在应用内集成知识库”的流程。

图片

知识库可以作为外部知识提供给大语言模型用于精确回复用户问题,你可以在Dify的所有应用类型内关联已创建的知识库。

8.添加知识库。 为获取更精准回答,本次导入XX公司相关背景介绍信息如下:

图片

等待知识导入完成。

图片

然后,在上面创建的聊天助手应用的编排页面,“上下文”区域内点击“添加”按钮添加知识库。

图片

9.对话互动。 LLM将首先从知识库内获取与问题相关上下文,在此基础上进行总结并给出更高质量的回答。在对话框内输入相同的问题“xx时尚公司经营范围有哪些”,输出如下:

图片

至此,基于Qwen3大模型和openGauss向量数据库为核心的RAG知识库搭建并测试完成。

相关链接

Qwen3模型:https://ollama.com/library/qwen3

openGauss项目仓库:https://gitcode.com/opengauss/openGauss-server

鲲鹏社区RAG解决方案:https://www.hikunpeng.com/document/detail/zh/kunpengrag/bestpractice/kunpengrag_21_0001.html

Dify项目仓库:https://github.com/langgenius/dify

### 如何使用 Dify 构建个人知识库发布 API 接口 构建个人知识库并通过 Dify 发布可调用的 API 是一个多方面的工作流程。以下是详细的说明: #### 1. 准备工作 为了成功完成此过程,需要准备虚拟机环境以及必要的计算资源[^2]。确保服务器配置满足运行大型模型的需求。 #### 2. 部署 Qwen 或其他大语言模型 在实际操作前,可以参考先前文章中的方法来部署适合的大规模语言模型(LLM)。例如,在本地环境中安装 Ollama 并加载 Qwen2.5 (7B) 模型作为基础支持工具。这一步骤对于增强后续应用的知识理解能力至关重要。 #### 3. 安装与设置 Dify 社区版本 继续按照指南指引完成社区版程序包下载、解压及启动服务等工作流描述。具体命令如下所示: ```bash git clone https://github.com/dify-ai/community.git cd community docker-compose up -d ``` #### 4. 创建知识库文件 利用 `POST /v1/knowledge-base/files` 接口实现逐行数据上传功能,从而避开传统整体传输方式可能带来的限制条件[^1]。下面是一个简单的 Python 脚本例子用于演示这一机制: ```python import requests url = "http://localhost:8090/v1/knowledge-base/files" headers = {"Authorization": "Bearer YOUR_API_KEY"} with open('data.txt', 'r') as file: lines = file.readlines() for line in lines: payload = {'content':line} response = requests.post(url, headers=headers, json=payload) print(response.text) ``` 在此脚本中,请替换 `"YOUR_API_KEY"` 为你自己的授权令牌值,并调整 `'data.txt'` 文件路径指向目标文档位置。 #### 5. 开发自定义API端点 一旦上述步骤全部完成后,则可以根据业务需求进一步扩展定制化的 RESTful APIs 来访问已建立好的内部资料存储结构。通常情况下,这些新增加的功能会涉及到 GET 请求查询特定记录或者 DELETE 方法删除不再需要的信息条目等内容设计思路。 ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Gauss松鼠会

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值