
社区版Dify开发
文章平均质量分 84
Dify: Agents, 大模型,工作流,GenAI,助手...
Dify 社区提供了很多创造的可能,我愿意来踩踩坑,也欢迎大家来一起交流学习。
半斤地瓜烧.
等仗打完,给你赏半斤地瓜烧。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
社区版Dify Sandbox 沙箱有资源使用限制,代码节点上并不支持threading多线程
我在sandbox 执行一个多线程代码时,一直在转圈,没有出结果,注意我的执行最大时间是800秒,不可能时间不够的问题。因为就目前而言,我的两个版本dify v0.14.0, v1.1.3都没有办法通过直接修改env 来实现让代码节点支持多线程。执行结果是一直,在执行而无结果,我猜大概是不支持开辟资源实现多线程的操作,在其他设置上限制了Dify sandbox。说不支持消耗很大的系统资源的代码在sandbox 上执行。,甚至在env 里 限制了代码执行的时间,和List的一系列长度要求,详细可以看。原创 2025-04-23 16:53:38 · 440 阅读 · 0 评论 -
社区版Dify 基于vLLM部署Qwen2.5-VL系列视觉大模型与推理加速策略
Dify+vLLM+Qwen2.5-VL快速推理,实现Image/video Caption,视觉大模型聊天。原创 2025-04-10 17:45:05 · 2727 阅读 · 0 评论 -
社区版Dify 调用不了局域网(172.18.0.0网段)内API,ping不到局域网(172.18.0.0网段)
直接说原因:社区版 Dify Docker 默认使用。原创 2025-03-28 14:37:53 · 971 阅读 · 0 评论 -
社区版Dify + Ollama + DeepSeek-R1(14b)实现私有化LLM推理
大模型本身就具备推理能力,为什么还需要推理模型,深度思考?简单地说 ,就是推理能力相对较低,只能处理相对简单的问题,而不会深入思考更加复杂的问题,所以 OpenAI 发布了o1 ,可以做各种考试的题目。但是 o1 并不开源 ,价格看起来遥不可及。值此,一个国内不怎么出名的公司,Deepseek ,发布了V3,用一种低成本实现的高水准的LLM。(557万美元训练出671B的模型)开源免费可商用噢,随后不久就发布了一个初代的推理模型:DeepSeek-R1 和DeepSeek-R1-Zero。原创 2025-01-24 17:28:42 · 5045 阅读 · 0 评论 -
社区版Dify实现文生视频 LLM+ComfyUI+混元视频
这个图就是我的Dify实现LLM+ComfyUI+混元视频的整个方案和思路,下面详细说说为什么可以这样做:(这部分可以结合我之前写的文章一起看,我会给出超链接)其实文生视频的开源模型其实有很多,比如:Sora,Dynamicrafter,VideoCrafter,混元视频,CogVideo等等模型。这些模型大部分都是支持ComfyUI,这里自己去找一找就好。本方法用的是混元视频的ComfyUI这部分还不懂的强烈推荐看一下我前面写的社区版DifyLLM+ComfyUI+代码执行的方原创 2025-01-18 21:32:32 · 4482 阅读 · 8 评论 -
社区版Dify sandbox【Python代码执行】Run failed: error: timeout,if the sandbox service
【代码】社区版Difysandbox【Python代码执行】Runfailed:error:timeout。原创 2025-01-17 22:40:59 · 7070 阅读 · 4 评论 -
社区版Dify 利用【Python代码节点】实现本地 ComfyUI (包括Flux) 文生图
咳咳,以上的模型就是Flux,我的Flux 长这样:Flux怎么安装?下次再更新了,我在上面说了,这个方法可以实现任意ComfyUI的工作流,Flux 也只是个工作流而已!以下内容属于个性输出,无需参考,本人每次体验文生图模型,第一句prompt都是“月黑风高的夜晚,一只孤狼在仰天长啸” 以下是Flux的杰作:欢迎关注我的社区版 Dify 开发专栏。原创 2024-12-29 01:04:37 · 6935 阅读 · 14 评论 -
社区版Dify+Ollama+llama3.2-vision 实现多模态聊天
为什么呢?因为目前来说 ,算是比较好的!装好Ollama之后,(如果没装看这里) 去Ollama 仓库看一下,然后 按照指示pull 下来这样就是11b 参数的 llama3.2 Visionx按照这里的方法,可以轻松导入到Dify。原创 2024-12-27 16:16:36 · 2993 阅读 · 2 评论 -
社区版Dify 轻松实现文生图,Dify+LLM+ComfyUI
然后输入你的网络地址,就可以本地 127.0.0.1 或者 localhost 调用了,但是,现在是要给到Dify 去调用,ComfyUI 要把网给出去,设置一下0.0.0.0就行。,里面存放的就是你的各种模型文件,新手先熟悉,checkpoints, loras ,很简单,直接下载文件 丢到里面存就行。,这是一个ComfyUI 工作流中的节点调用,如果你需要安装新的节点(实现更加高阶的功能),是在这个文件夹里面存储的。上面的LLM给你提供了很大的创造的可能,可以自行搭建有趣的应用!原创 2024-12-26 17:20:55 · 5039 阅读 · 4 评论 -
社区版Dify 发布应用后出现了 Nginx 404 错误,可能是你改了端口
Dify 发布应用出现了404 错误原创 2024-12-25 10:43:34 · 5303 阅读 · 14 评论 -
社区版Dify安装时会遇到的网络问题,已成功安装
看到这篇的都是想探索下大模型,Agent,本地搭建会怎么样。这是社区版本的安装指南,不是API版本安装。原创 2024-12-23 16:16:35 · 4708 阅读 · 0 评论