AI工作流平台Dify本地部署

Dify 是一个支持通过AI工作流的形式,开发AI应用的开源平台,他相比 LangChain 更加的易用,甚至零代码即可创建你的AI应用。

功能Dify.AILangChainFlowiseOpenAI Assistant API
编程方法API + 应用程序导向Python 代码应用程序导向API 导向
支持的 LLMs丰富多样丰富多样丰富多样仅限 OpenAI
RAG引擎
Agent
工作流
可观测性
企业功能(SSO/访问控制)
本地部署

所谓AI工作流,就是能将多个AI的输入输出进行关联,还可以在任意环节加入知识库,数据库,python/JS脚本,插件等进行高度定制处理的流式工作空间。

通过使用工作流的形式组织多个AI各司其职,可以实现更复杂功能,例如私有知识库RAG,模型管理,AI应用。

下面我将详细知道你搭建本地Dify,并在Dify中配置AI模型。

安装Dify

下载源码

将Dify的源码克隆到本地

git clone https://github.com/langgenius/dify.git

使用Docker安装

如果你还没有Dokcer,可以前往官网下载 Docker Desktop 一键安装Docker

进入docker文件夹,在文件夹下执行命令行,拷贝环境配置文件

cp .env.example .env

然后从当前文件夹内找到 docker-compose.yaml 文件,使用它可以便捷的安装Dify

默认 docker-compose.yaml 文件的配置,安装的Dify会在80端口启动,如果不想80端口被占用,可以打开该文件,修改 nginx 配置

通过命令行使用docker-compose安装Dify

docker compose up -d
​
# 正常返回
[+] Running 74/9
 ✔ db Pulled                                                    834.2s
 ✔ sandbox Pulled                                              1120.7s
 ✔ weaviate Pulled                                              526.5s
 ✔ web Pulled                                                   174.0s
 ✔ redis Pulled                                                 893.7s
 ✔ api Pulled                                                  2919.8s
 ✔ worker Pulled                                               2919.8s
 ✔ ssrf_proxy Pulled                                            494.0s
 ✔ nginx Pulled                                                 184.7s
[+] Running 11/11
 ✔ Network docker_default             Created                     0.0s
 ✔ Network docker_ssrf_proxy_network  Created                     0.0s
 ✔ Container docker-db-1              Started                     1.1s
 ✔ Container docker-web-1             Started                     1.1s
 ✔ Container docker-redis-1           Started                     1.1s
 ✔ Container docker-sandbox-1         Started                     1.1s
 ✔ Container docker-weaviate-1        Started                     1.1s
 ✔ Container docker-ssrf_proxy-1      Started                     1.1s
 ✔ Container docker-api-1             Started                     0.7s
 ✔ Container docker-worker-1          Started                     0.7s
 ✔ Container docker-nginx-1           Started                     0.8s

等待命令安装完成,打开Docker Desktop或者通过命令行即可查看到安装好的Dify包含的所有镜像

在Docker中启动Dify容器,打开浏览器访问 http://localhost:80/install

初次登录需要设置管理员账号密码,然后使用账号密码登录即可进入到平台,至此你的Dify就安装好了

配置AI模型

我们的目的是制作AI应用,所在创建应用之前,你需要在Dify上配置可供平台使用的大模型。你可以通过调用大模型的API进行使用,也可以部署自己的本地大模型私有化使用。

第三方AI模型

你可以直接配置第三方模型的API-KEY调用,通过"设置"-"模型供应商"找到对应的模型,设置你的API-KEY即可添加

配置保存后,模型即可在AI应用中使用。

本地AI模型

如果是打算做私有化的应用,则需要本地的AI模型来保护隐私,就需要部署本地的AI模型。

部署本地模型

本地模型可以使用 Ollama 进行部署,部署指南可以参考《DeepSeek-R1私有化部署》

使用本地模型

部署完成本地AI模型,就可以在设置的模型供应商中找到 Ollama ,点击添加模型

填写模型名称,这里需要填写Ollama中正确完整的模型名称,你可以通过命令行 ollama list 指令查看

Ollama list
​
NAME                  ID              SIZE      MODIFIED
llama3.2:latest       a80c4f17acd5    2.0 GB    41 minutes ago
deepseek-r1:latest    0a8c26691023    4.7 GB    26 hours ago
deepseek-r1:7b        0a8c26691023    4.7 GB    11 days ago

配置Ollama的访问路径,这里使用域名 localhost 可能无法访问,因为是docker服务,建议使用 host.docker.internal 域名

添加模型后,在Dify上创建AI应用的时候,大模型节点即可选择对应模型进行处理了。

到此Dify的本地搭建工作就完成了,建议你继续阅读《Dify搭建私有化RAG应用》,通过实操来学习如何创建一个AI工作流应用。

 如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

事实上,抢你饭碗的不是AI,而是会利用AI的人。

科大讯飞、阿里、华为等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?

与其焦虑……

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

基于此,我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近70次后,终于把整个AI大模型的学习门槛,降到了最低!

在这个版本当中:

第一您不需要具备任何算法和数学的基础
第二不要求准备高配置的电脑
第三不必懂Python等任何编程语言

您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包,现在将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

一、LLM大模型经典书籍

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

在这里插入图片描述

二、640套LLM大模型报告合集

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
在这里插入图片描述

三、LLM大模型系列视频教程

在这里插入图片描述

四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)

在这里插入图片描述

五、AI产品经理大模型教程

在这里插入图片描述

LLM大模型学习路线 

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。

  • 内容

    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。

  • 内容

    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.3 流水线工程
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。

  • 内容

    • L3.1 Agent模型框架
    • L3.2 MetaGPT
    • L3.3 ChatGLM
    • L3.4 LLAMA
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。

  • 内容

    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

这份 LLM大模型资料 包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

### Windows 上本地部署 Dify 和 Ollama 的教程 #### 准备工作 为了在 Windows 环境中成功部署 Dify 和 Ollama,确保已安装 Docker Desktop 并配置好 WSL2 后端环境。这一步骤至关重要,因为许多现代容器化应用程序依赖于这些组件来提供稳定的运行环境[^4]。 #### 安装 Ollama 通过 PowerShell 或者 Git Bash 执行如下命令完成 Ollama 的安装: ```bash mkdir ollama && cd ollama/ curl -fsSL https://ollama.com/install.sh | sh ``` 上述脚本会自动检测操作系统并下载适合版本的二进制文件到当前目录下,同时设置必要的权限以便后续操作能够顺利进行[^2]。 #### 配置与启动 Ollama 服务 一旦安装过程结束,可通过以下指令初始化数据库结构并向后台提交守护进程: ```bash docker-compose up -d --build ``` 此命令利用 `docker-compose.yml` 文件定义的服务描述创建网络连接、卷映射等资源对象;选项 `-d` 表示以后台模式运行容器实例,而 `--build` 则强制重新构建镜像以反映任何可能存在的更改[^3]。 #### 使用 Dify 开发 AI 应用程序 当确认 Ollama 已经正常运作之后,就可以着手准备基于它的 API 接口来进行更高级别的编程活动了。对于希望快速搭建原型或是测试新想法的朋友来说,Dify 提供了一套简洁易懂的工作流框架,使得整个流程变得异常简便快捷[^1]。 具体而言,开发者只需按照官方文档指示克隆仓库至本地机器上,接着参照项目内的 README.md 文档逐步实施各项设定直至最终发布上线为止。期间遇到的技术难题也可以随时查阅社区论坛获取帮助和支持。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值