- 博客(12)
- 收藏
- 关注
原创 文生视频产品使用的几点感受,是否真到了写几段话就能创作出宏伟巨片的时代
不管文生图还是文生视频,都要不停的抽卡,看运气,这种不确定性也会让创作变得不可控,可能兴高采烈写完剧本,发觉生成的南辕北辙,是不是很浪费时间。
2024-09-26 10:42:17
1190
原创 10B左右多模态模型,可本地食用,模型真的在越来越小型化
Ovis1.6-Gemma2-9B、Qwen2VL-7B、InternVL2-26B和MiniCPM-V-2.6等主流开源模型对比:查找更多视觉模型
2024-09-20 14:30:52
1079
原创 NGraphX v1.12.0发布, 新增任务调度与监控、流程定义缓存、视觉模型适配
MiniCPM-V 2.6 是一款由面壁智能推出的端侧 AI 多模态模型,属于 MiniCPM-V 系列中最新且性能最佳的模型。相较于 MiniCPM-Llama3-V 2.5,MiniCPM-V 2.6 在性能方面有显著提升,并引入了多图和视频理解等新功能。Celery是一个强大的异步任务队列/作业队列,基于分布式消息传递。它专注于实时操作,但同时也支持调度。以Pandas DataFrame 传递数据有助于提高数据处理流程的效率、可维护性和可扩展性,同时确保数据的一致性和准确性。
2024-09-18 10:01:46
1154
原创 NGraphX 中秋节版发布,v1.11.0 新增智能体Copilot前端React脚手架及调色板检索示例
增加Copilot脚手架,调色板RAG检索示例及诸多功能改进
2024-09-14 19:13:03
851
原创 NGraphX v1.10.0 发布, 新增“系统默认”模型节点,工具函数增强,流程设计器瘦身
流程设计器优化,Python工具函数节点增强,语言模型新增节点及错误修复。
2024-09-07 18:32:45
371
原创 NGraphX v1.9.0发布 新增从Pandas DataFrame中读取文档构建向量索引,并优化向量检索器等功能
1️⃣ 新增Pandas DataFrame读取器:现在支持从Pandas DataFrame中直接加载Llama Index所需的文档。 2️⃣ 优化DuckDB & Neo4J检索器:改进消息传递,支持从上游节点获取消息,便于预处理。 3️⃣ 向量检索器新增Meta信息输出:文档来自数据库表时,检索后可获取表主键等关键信息。 4️⃣ 简化检索器文档输入:去除不必要必填项,简化用户操作。 5️⃣ JSON动作支持自动探测:提升模型生成准确性和减少错误反馈。
2024-09-05 22:51:02
884
原创 Pocketbase鉴权,NGraphX提供智能体,驱动AiEditor实现SaaS化Ai文档编辑
语言模型选用GLM4-9B,由智谱GLM4-Flash、硅基流动GLM4-9B免费模型提供动能。吐真的希望有更多的MaaS产商都提供标准的Open AI协议兼容。
2024-08-31 13:30:33
766
原创 NGraphX v1.8.2发布,Bug修复及增加AiEditor接入示例并托管示例源码到Github
本次更新包括了对启动脚本、认证流程、请求Url处理的优化,以及工作流API的改进。接入示例,让用户体验更直观、互动性更强。并增加AiEditor接入示例,示例源码托管在Github上
2024-08-31 12:13:29
586
原创 NGraphX 智能体创作 v1.8.1 发布, 智能体并行、数据序列化及节点编排改进与优化
本次更新包含了多项改进和新增功能,旨在提升用户体验和系统性能。我们将持续致力于产品的优化和创新,为您提供更加稳定、高效的。
2024-08-28 21:24:12
498
原创 NGraphX 智能体创作 v1.8.0 重磅升级!功能优化及大量实用性更新
很高兴地宣布,经过不断努力,迎来了全新升级!本次更新不仅优化了多项功能,还增加了许多实用的新特性。
2024-08-27 15:17:27
889
原创 为什么你需要掌握xyflow或x6节点编排前端组件?
除了上述散修,就是宗门级的,比如Coze,百度的AentBuilder,魔搭的ModelScope-Agent,其它的MaaS产商都是走NodeFlow流,顺便吐槽一下魔搭的那个智能体流程编排,看了下源码,大有彼时诸侯动乱,吾皇惊,速命大臣,问敌何方,战之,好像没怎么设计,很乱。最后就是NGraphX了,前面在聊到langflow时有说,也是面向AIGC,RAG,智能体编排,但不仅限于智能体,在规划中的功能,智能体编排仅仅是冰山之一角。在完全插件驱动理念上是一致的,老实说,给了我灵感。
2024-08-23 22:31:36
1260
原创 LLM FunctionCall 是什么
LLM(Large Language Model,大型语言模型)的FunctionCall(函数调用)用途通常指的是在大型语言模型中嵌入特定的函数或API调用,以便执行特定的任务或获取数据。在实际应用中,FunctionCall可以极大地扩展语言模型的功能,使其能够更加有效地处理各种复杂的任务。
2024-08-22 11:49:28
523
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅