Linux安装部署Dify+配置ollama私有化的deepseek-r1:7b模型+配置Xinference私有化的Embedding模型

Dify介绍

功能特点

  • 可视化工作流编排:通过零代码拖拽式界面,无需编写代码就能构建复杂的AI工作流程,降低开发门槛,提高开发效率。
  • 多模型支持:可无缝集成GPT系列、Llama、Mistral等数百种语言模型,兼容OpenAI API兼容的私有化模型,也支持本地部署的LLaMA2、ChatGLM3等开源模型,让企业能根据业务需求和成本灵活选择。
  • RAG增强检索:内置高质量的检索增强生成(RAG)引擎,支持PDF、PPT等多格式文档解析,运用混合检索(关键词 + 向量)与ReRank优化技术,显著提升回答的准确性,有效降低AI幻觉。
  • 智能体(Agent)生态:提供50多种预置工具,如谷歌搜索、DALL - E、WolframAlpha等,还支持自定义工具集成,基于ReAct框架设计多智能体协作流程,可实现如先查天气再生成出行攻略并发送到微信群等复杂任务的自动化。
  • 企业级LLMOps:具备应用监控、日志分析以及数据标注功能,支持持续优化提示词、数据集和模型性能,帮助企业更好地管理和优化AI应用。

Dify私有化的作用

  • 保障数据安全与隐私:对于金融、医疗等对数据安全要求极高的行业,私有化部署可使企业敏感数据全程在本地存储和处理,数据传输采用国密SM4算法加密,存储层实现字段级加密,避免数据泄露风险,满足严格的数据治理和合规要求。
  • 实现定制化开发:企业能够根据自身独特的业务需求和流程,对Dify的代码进行自由修改和深度定制,例如集成企业现有的CRM、ERP等系统,开发行业专属的AI助手,打造符合企业特色的智能应用。
  • 优化性能与成本:企业可根据实际业务负载,精准地为Dify配置硬件资源,如GPU、CPU等,实现性能的最大化优化。在长期使用场景下,相比云服务,私有化部署的成本可降低60%以上。
  • 自主掌控与合规:企业完全掌握系统的运行状态、数据流向以及技术栈,能够更好地应对监管要求和数据安全审计,确保业务运营的自主性和合规性。

地址

Github代理https://blog.youkuaiyun.com/YXWik/article/details/149833678

下载源码:https://github.com/langgenius/dify/archive/refs/heads/main.zip
在这里插入图片描述

解压unzip dify-main.zip
安装

cd /usr/local/dify-main/docker
cp .env.example .env

.env 中增加ollama配置

# 启用自定义模型
CUSTOM_MODEL_ENABLED=true
# 指定 Olama 的 API地址(根据部署环境调整IP)
OLLAMA_API_BASE_URL=http://192.168.0.180:11434

在这里插入图片描述

docker compose up -d

在这里插入图片描述
因为我的nginx端口被占用了,这里做个处理
在这里插入图片描述
查看 docker-compose.yaml 找到相关的变量 443端口对应的变量
在这里插入图片描述

找到 .env文件中变量 EXPOSE_NGINX_SSL_PORT 更改端口
在这里插入图片描述
在这里插入图片描述
访问 :192.168.0.180:8088
自行更改 ip+ 端口(上面.env设置的,没设置的默认是 80
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述在这里插入图片描述

配置Ollama

Linux安装docker+ollama+deepseekhttps://blog.youkuaiyun.com/YXWik/article/details/149497501

在这里插入图片描述

如果没有ollama插件的需要安装一下
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
设置模型,前文中在192.168.0.180上安装了deepseek-r1:7b

http://192.168.0.180:11434/

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

配置 Xinference

Linux安装Xinferencehttps://blog.youkuaiyun.com/YXWik/article/details/149834455
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
点击保存出现如下报错
在这里插入图片描述
我在服务器上访问时可以访问的
在这里插入图片描述
但是在difyapi中进行访问时不可行的
在这里插入图片描述
说明我的 Xinference 网络和 dify 的网络不相通
查看运行的容器:docker ps -a
找到difyapi容器 和 xinference容器在这里插入图片描述
查看网络:

docker inspect xinference | grep -A 10 "Networks"
docker inspect docker-api-1 | grep -A 10 "Networks"

可以看到一个是 docker_default 一个是 bridge
在这里插入图片描述
解决方案
可以将xinference加入dify所在的网络docker_default ,以后哪个容器访问不到它,就将它加入一下相关网络就行

docker network connect docker_default xinference

在这里插入图片描述
取消已加入的网络:

docker network disconnect docker_default xinference
### 如何配置 Ollama 进行 DeepSeek-R1 模型的在线训练 #### 准备工作 为了能够顺利地配置并使用 Ollama 来进行 DeepSeek-R1 模型的在线训练,需先完成环境准备。这包括但不限于安装必要的软件包和服务。 确保已经按照官方指南完成了 DifyOllama安装,并启动了 `ollama` 服务[^1]: ```bash ollama serve ``` #### 获取模型 接着获取所需的 DeepSeek-R1 模型版本。对于较低硬件配置的情况,可以选择较小规模的模型变体,例如7B参数量的版本,在 RTX2060 显卡上也能正常运行[^3]: ```bash ollama run deepseek-r1:7b ``` 此命令会自动下载大约4GB大小的模型文件,默认存储路径位于系统的 C 盘根目录下。 #### 设置训练环境 目前公开的信息主要集中在如何部署和调用预训练好的 DeepSeek-R1 模型,而有关于具体的在线微调或继续训练指导相对较少。不过基于一般的大规模语言模型训练流程以及现有资料推测,可能涉及以下几个方面的工作: - **数据集准备**: 收集适合目标任务的数据集,并将其转换成适用于模型输入格式。 - **调整超参数**: 根据实际应用场景设定合理的批量大小(batch size)、学习率(learning rate)等关键参数。 - **编写训练脚本**: 利用支持框架(如 PyTorch 或 TensorFlow)构建自定义训练循环逻辑,同时集成 Ollama 提供的相关接口用于加载基础模型权重及保存更新后的状态。 值得注意的是,上述操作假设读者具备一定水平的技术背景知识,特别是熟悉 Python 编程语言及其生态系统内的常用工具库;另外还需要了解基本的概念和技术细节关于大规模机器学习项目开发周期管理等内容。 由于涉及到较为复杂的工程实践环节,建议参考官方文档或其他社区资源进一步深入研究特定主题领域内最佳实践经验分享文章。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值