大模型应用开发平台dify部署(进阶篇)

国内已经有很多开源的大模型,但即使我们拥有强悍的硬件,在本地部署了满血版的开源模型,比如DeepSeek R1 671B,用起来还是跟官网有差别,各大平台接入的DeepSeek R1用起来也是各不相同。这是因为各平台在部署的过程中会进行优化,包括接入知识库、创建智能体、训练、超参数调整等,用户使用的是平台提供的应用程序,而不是单纯的开源模型。

对于个人用户,可能对隐私不是太在意,觉得我一个小市民,人家大公司也不会拿我的数据干什么,方便最重要,哪个平台的产品好用,直接用就是了。但对于有一定规模的公司来说,公司的数据就是资产,在把企业数据上传给平台时就要慎之又慎,考虑到脱敏的繁琐、数据泄露的风险和需要与本地应用交互完成特定任务,可能在公司局域网部署模型是更好的选择。大模型每日都在革新,各种新工具也是层出不穷,从langchian到FastGPT/dify/AnythingLLM,越来越简单易用,对开发要求越来越低。

这里就以Windows10下的Dify为例,分享大模型应用开发平台的搭建。dify的全称是do it for you,从名字就看出它就是为了简化流程而生的,虽说是开发,但基本也是拖拉拽的形式,可以不用写代码。

前排提示,文末有大模型AGI-优快云独家资料包哦!

一、安装Ollama

这步不是必要的,用LM Studio启动的模型也可以,不过一般服务器是Unix/Linux环境,用Ollama命令行更方便。

1. 下载与安装
  • 在电脑的软件商店中搜索并安装Ollama,或者访问Ollama官网(https://ollama.com/)下载安装包。

  • 安装完成后,Ollama没有图形界面,通过命令行进行操作,Ollama的整套命令都与Docker类似,很容易上手。

2. 配置环境变量
  • 修改环境变量OLLAMA_MODELS,将其设置为存放模型的地址,以节约C盘空间。

  • 修改环境变量OLLAMA_HOST,将其设置为0.0.0.0,让除本机以外的其他局域网机器也可以访问模型。

3. 下载与启动模型
  • 在浏览器中输入http://localhost:11434/验证,看到“Ollama is running”表示Ollama服务启动成功

    图片

  • Ollama的服务地址中的localhost可以替换为局域网地址地址。局域网地址可以通过命令行ipconfig查看。

  • 登录Ollama官网的Models页面,搜索模型,每个模型都会提供启动的命令,复制到命令行运行,等待下载完成模型就会启动。LLM模型用于文本生成和聊天,Embedding模型用于文本嵌入(知识库会用到)。

  • 这里我们下载一个LLM模型llama3.2:1b和Embedding模型nomic-embed-text

    图片

    图片

    图片

图片

图片

4. 测试API
  • 使用Postman测试API,除了提示词prompt外,还需要在JSON中写明模型名称

    http://172.20.176.1:11434/api/generate

    JSON复制

    {
      "model": "llama3.2:1b",
      "prompt": "hello"
    }
    

图片

5. 使用文件创建模型
  • Ollama也可以使用下载的GGUF模型文件创建模型,对应的命令是:

    cmd复制

    ollama create <文件名>
    

二、安装Dify

推荐直接看官方doc(https://docs.dify.ai/zh-hans)。

1. 下载与安装
  • Docker安装方式

    访问Dify的GitHub页面(https://github.com/langgenius/dify)下载安装包,并按照页面提示进行安装。

  • 如果尚未安装Docker,需要先安装Docker Desktop,再使用以下命令启动Dify:

    cmd复制

    docker compose up -d
    
  • 初次启动时,需要从Docker社区下载相关镜像,没有魔法的要换国内镜像,会另外写一篇讲docker的安装。

2. 访问Dify
  • 安装完成后,在浏览器中打开http://localhost,即可看到Dify的注册页面。

  • 输入任意邮箱地址进行注册(账号信息保存在本地)。


三、设置Dify使用的模型

1. 配置公网模型
  • 注册后进入Dify网页,点击右上角头像设置,配置模型。

  • Docker启动时已经配置好网络,Dify可以直接访问外网,可以加入OpenAI、Qwen、DeepSeek等模型。

    图片

2. 添加本地部署模型
  • 对于Ollama模型:

    • 模型提供商选择ollama。

    • 模型地址格式为http://<局域网地址>:11434,例如http://172.20.176.1:11434/

    • 模型名称需要与ollama listollama ps命令显示的模型名称完全一致。如果提示无法访问该地址,请检查OLLAMA_HOST是否已正确设置,并重启电脑。

    • 模型类型选择LLM或Text Embedding

图片

图片

  • 对于LM Studio模型:

    • 模型提供商需选择OpenAI-API-compatible。

    • 地址格式为http://<局域网地址>:<端口号>/v1,例如http://172.22.48.1:1234/v1

    • 模型名称可以在LM Studio的开发者菜单左上角复制。

    • 需要注意的是,LM Studio启动的模型默认只能通过localhost访问。如果需要通过局域网访问,需在LM Studio的开发者菜单左上角的设置中勾选“在局域网内提供服务”。模型启动后,在底部Developer Logs窗口中看到模型地址的localhost已被替换为局域网地址。

图片

  • 模型添加完成,检查蓝色按钮是打开,在系统模型设置里看到默认模型已经变为用户添加的模型了。

图片

3. 其他模型
  • 除了推理和嵌入模型外,还可以加入其他模型。

    图片


四、创建Dify知识库

1. 创建知识库
  • 点击Dify上部的知识库菜单,选择“创建知识库”。

  • 导入已有文本(可以一次拖入多个文件,但每个文件不能超过15M)。

  • 设置选项包括“使用Q&A分段”(客服系统推荐选上)、索引方式、检索设置等,可以点“预览块”查看效果。

  • 如果上一步没有设置嵌入模型,索引方式只能选择“经济”。

    图片

    图片

  • 等待处理完成后进入知识库查看,可以追加文件或关闭某个文件的引用。

    图片


五、Dify工作室

1. 创建应用
  • 点击Dify上部的工作室菜单,默认可以创建聊天助手Agentworkflow等应用。

  • 这三种应用的灵活性依次增强,开发难度也相应增加。

  • 如果不确定如何创建应用,可以选择从模板创建,并根据需求进行修改。

    图片

2. 聊天助手
  • 可以设计提示词,挂载上一步创建的知识库,选择预设的模型,还能加入开场白、调整模型参数等,主要用于客服、面试等,省去了自己开发聊天框的时间,还提供API调用和嵌入网页的选项。

  • 日志菜单中可以查看所有聊天记录,在监测菜单中可以看到应用的使用情况统计图表。

  • 需要注意的是,用户使用该应用时,即使在聊天框中点击了“删除聊天记录”,聊天记录仍然会保存在服务器上。这也是我不喜欢使用第三方提供的大模型的原因。如果第三方使用本地部署的模型,聊天记录会被第三方保存和使用;如果第三方使用的是官方API,聊天记录则会被官方和第三方同时使用。模型概念火爆的当下,很多第三方公司都能靠接入别家模型引流。但我认为随着大模型厂商应用的完善,这些第三方公司会倒闭一大半,没有自主模型就不具有定价权,靠什么留住用户值得深思。

    图片

3. Agent(智能体)
  • 在聊天助手的基础上允许加入工具,包括计算、翻译、天气查询、自定义工作流等,可以理解LLM大模型是基础,智能体是应用程序。

  • 有些第三方提供的工具需要输入API Key。

    图片

4. Workflow(工作流)
  • 可以自由编排任务流,通过拖拉工具和大模型组件实现。

  • 上一个任务的输出作为下一个任务的输入,除了默认参数还可以加入自定义参数。对于使用过Jenkins、Airflow、autoML等工具的同学,应该会感到熟悉。

  • 可以加入代码组件,调用Python、JS程序。我尝试用Python调用一个shell命令,提示“error: operation not permitted”,可见也不能为所欲为,主要还是对参数进行处理。

图片


总结:

Ollama+daify部署比较简单,对硬件要求也不高,主要是docker的安装(换国内镜像)和局域网设置可能会遇到问题。大模型部署跟云计算类似,可分为公有/私有/混合,公有的更新快、性能好、使用方便、不需要运维,私有的保护隐私、限制少、灵活性高,须根据实际需要进行选择。

今天的分享就到这里,有遗漏或错误的地方,欢迎指正,谢谢!

6.2 系统的持续优化

通过数据反馈、模型微调和算法优化,AI大模型问答系统能够不断进化。这使得系统不仅能够适应新兴问题,还能处理日益复杂的用户需求,为用户提供更加智能的服务。

如何学习AI大模型 ?

最先掌握AI的人,将会比较晚掌握AI的人有竞争优势

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

倘若大家对大模型抱有兴趣,那么这套大模型学习资料肯定会对你大有助益。

针对0基础小白:

如果你是零基础小白,快速入门大模型是可行的。
大模型学习流程较短,学习内容全面,需要理论与实践结合
学习计划和方向能根据资料进行归纳总结

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

请添加图片描述

👉AI大模型学习路线汇总👈

大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉大模型实战案例👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

👉大模型视频和PDF合集👈

这里我们能提供零基础学习书籍和视频。作为最快捷也是最有效的方式之一,跟着老师的思路,由浅入深,从理论到实操,其实大模型并不难

在这里插入图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

IT猫仔

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值