在人工智能飞速发展的今天,大模型和相关工具层出不穷,极大地便利了我们的工作与生活。DeepSeek 作为备受瞩目的语言模型,凭借出色性能和广阔应用潜力,深受开发者喜爱。Dify 则是极具创新性的低代码 AI 应用开发平台,打破技术壁垒,让非专业开发者也能轻松构建强大 AI 应用。当 DeepSeek 与 Dify 结合,会碰撞出怎样的火花?今天,我们聚焦 Dify,深入探讨其特性、安装部署流程、与 DeepSeek 的集成方式及丰富应用实践。
一、Dify 是什么?
Dify 是一款低代码人工智能应用开发平台,它以 “低代码” 特性打破了技术壁垒,让普通开发者甚至非技术人员,也能轻松搭建强大的 AI 应用。通过简单的配置和操作,Dify 能够接入各类大模型,包括我们即将与之集成的 DeepSeek。
不仅如此,Dify还能融合用户自有数据,实现智能对话、知识问答、文本生成等多元功能。无论是企业打造智能客服,还是个人构建知识管理助手,Dify 都能凭借其强大的功能和易用性,成为你的得力工具。
Dify官网:http://difyai.com/
使用文档:https://docs.dify.ai/
二、Dify 的安装与部署
1. 环境准备
在安装 Dify 之前,确保你的服务器环境满足以下要求:
-
操作系统
推荐使用 Linux 系统,比如 Ubuntu 20.04,其稳定性和开源特性更适合 Dify 的运行。
-
软件依赖
需要提前安装好 Docker 和 Docker Compose。Docker 可以将 Dify 及其依赖打包成一个独立的容器,方便部署和管理;Docker Compose 则用于定义和运行多个 Docker 容器的应用,让 Dify 的部署更加便捷。
2. 获取 Dify 代码
通过 Git 命令将 Dify 的代码仓库克隆到本地服务器:
git clone https://github.com/dify-ai/dify.git
耐心等待代码下载完成,这一步是获取 Dify 程序的基础。
3.启动 Dify
完成配置后,进入 Dify 源代码的 Docker 目录,执行以下命令启动 Dify 服务:
cd dify/docker``# 复制环境配置文件cp .env.example .env``docker-compose up -d
Docker Compose 会根据配置文件自动拉取所需镜像并启动 Dify 服务。这个过程可能需要一些时间,耐心等待,直到看到服务启动成功的提示,就意味着 Dify 已经在你的服务器上运行起来。
注意:在此阶段可能会遇到下载失败的情况,可以尝试切换源解决。
三、Dify 的配置
当 Dify 成功安装完毕,在浏览器地址栏输入http://localhost/
(默认端口为 80)即可访问 Dify。首次进入时,系统会提示进行初始化操作,在此处设置好账号和密码。完成设置后,使用刚刚设定的账号密码登录系统,开启 Dify 的使用之旅。
在 Dify 中,轻点右上角头像,在弹出的菜单中选择 “设置”,接着在设置页面里找到 “模型供应商”,从下拉选项中选定 “Ollama”,最后点击 “添加模型” 即可。
模型选择之前搭建的DeepSeek-R1模型,基础URL为本地DeepSeek的地址。配置完成后我们就在Dify中创建了模型供应商。接下来将会探索Dify具体的应用实践。
四、Dify 的应用实践
1. 创建聊天应用
在Dify主页选择 全部 -> 创建空白应用->选择聊天助手 -> 填写应用名称和描述,方便后续管理和识别。然后选择我们之前集成的 DeepSeek 模型,这样应用就具备了强大的 AI 能力。
然后,进入编排页面,“提示词” 起着关键作用,它能够对 AI 的回复内容加以限定和约束,并且这部分内容不会展示给用户。提示词可以借助生成器自动生成,不过本次暂不使用,后续会详细介绍其使用方法 。
创建好应用后,进行测试。向应用提问,检查回答是否准确、符合预期。如果发现问题,及时调整对话流程和模型参数,不断优化应用的表现,让它更好地满足我们的需求。
2. 创建知识库
知识库是专门用来存储企业或个人的各类资料的智能数据仓库。它能协助 AI 准确回答专业问题,其原理是先把文档拆解成小块,转化为向量形式存储起来。当用户提问时,系统会进行检索,找出匹配的内容,再结合大模型生成可靠的答案。
Step 1:准备知识数据
将你想要存入知识库的文档、资料进行整理,Dify 支持多种格式,如 PDF、TXT 等。确保数据的准确性和完整性,这是构建高质量知识库的基础。
Step 2:数据导入
在 Dify 应用中 选择 知识库 -> 创建知识库 -> 上传知识 -> 等待处理完成,找到数据导入功能。选择准备好的知识数据,设置好导入参数,如数据分类、关键词提取等。
文件上传后,Dify 会自动对数据进行处理和索引,将这些知识转化为可以快速检索和利用的形式。
Step 3:知识问答
完成数据导入后,本地知识库就搭建好了,进入聊天应用,选择刚才创建的知识库,即可开始带有私域知识的沟通。
用户在与应用对话时,Dify 会结合知识库中的内容和 DeepSeek 的语言理解能力,给出准确的回答,实现高效的知识检索和应用。无论是工作中的资料查询,还是学习中的知识复习,都能轻松应对。
3. 创建Agent智能体
Agent 是一种智能 AI 助手,它能自动处理复杂任务,像查询数据、操作其他软件都不在话下。其工作原理是通过预设规则,或是学习用户目标,把任务拆解后调用搜索工具、API 等,自主完成任务,你只需输入应用名称即可 。
首先,在Dify中,点击创建空白应用 - > 选择Agent,输入应用名称和描述等信息构建智能体应用。
接下来,我们构建一个名为“图表制作助手”的智能体应用。在编排页面,首先设置提示词“你是一个各类图表制作的小助手”,然后添加“工具”,这里添加“chart_pie_chart等工具,并根据需求对工具进行配置,注意部分工具需要先获得授权才能应用。
完成配置后,进入调试与预览环节,对 “图表制作助手” 这一智能体应用的功能展开验证。如上图所示,该应用成功读取了知识库中的数据,并顺利生成了柱状图与饼状图,各项功能运行正常 。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。