智能体
文章平均质量分 80
为大家提供一个全面了解、学习和掌握AI智能体技术的平台。它旨在帮助读者从基础理论到实际应用,从技术架构到行业解决方案,全方位深入理解智能体技术。专栏内容覆盖智能体的基本概念、核心技术、开发流程、应用场景以及行业发展趋势等多个方面。
AI智能体
研究大模型、AI智能体的设计与应用。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
基于MCP搭建汽车网数据分析智能体
本文介绍了如何配置和使用CherryStudio AI助手。主要步骤包括:1)下载安装CherryStudio及相关工具;2)配置filesystem、fetch和python工具;3)添加助手并设置提示词、模型及MCP服务器;4)运行助手完成数据抓取与分析任务。文章还对比了MCP事件驱动模式和Dify计划驱动模式的特点,前者灵活适应非结构化任务,后者可控性强适合标准化流程。整个配置过程详细说明了文件路径设置和工具导入方法,为用户提供完整的操作指南。原创 2025-09-05 13:23:04 · 386 阅读 · 0 评论 -
手机产品客服(分类问答小助手)
摘要:本文介绍了产品客服分类问答场景的工作流实现方法。系统采用Chatflow模式,包含开始节点、问题分类节点、知识检索节点、LLM节点和直接回复节点五个核心环节。通过设置三类问题标签(售后、操作、其他),系统能自动识别用户问题类型并调用相应知识库进行回复。其中售后和操作类问题会关联对应知识库并由LLM节点生成专业回复,其他问题则直接返回预设回复。该系统通过明确的流程设计和分类标准,实现了手机产品客服问答的智能分类处理。原创 2025-08-04 09:25:42 · 690 阅读 · 0 评论 -
AI辅导员(Django版)
本文介绍了如何使用Django框架快速搭建一个AI辅导员网站。主要内容包括:1)创建Django工程和应用;2)配置全局和局部URL路由;3)编写视图函数和HTML模板,嵌入聊天机器人iframe;4)启动服务器并测试运行效果。通过简单的5个步骤,即可实现一个网页版的智能聊天程序。文章还展示了最终的运行效果和Django项目目录结构。原创 2025-08-01 09:48:10 · 752 阅读 · 0 评论 -
Dify分段设置小技巧
本文介绍了Excel和Word文档数据的两种分段方法:通用分段和父子分段。通用分段将每行/段设为父块,用"\n\n"分隔;父子分段在此基础上增加子块划分,Excel用";"、Word用","分隔子块。示例中学生信息被分成2个父块,各含5个子块。两种分段方式分别适用于不同数据处理需求。原创 2025-07-31 13:12:47 · 691 阅读 · 0 评论 -
AI辅导员(完成角色的个性化服务)
本文介绍了基于Dify平台构建AI辅导员聊天助手的完整流程。首先需准备辅导员知识库文档,在Dify创建聊天助手应用并设置专业提示词和开场白。重点是通过父子分段方式创建知识库,选择合适的embedding模型和向量检索方法。完成知识库集成后,经过调试优化即可发布应用,支持API调用或网页嵌入。文中特别强调操作后需"发布更新"保存设置。该方案实现了限定知识范围的智能问答服务,可应用于高校学生辅导场景。原创 2025-07-31 11:41:49 · 1169 阅读 · 0 评论 -
Coze、Dify 和 LangChain 的区别与联系
Coze、Dify和LangChain是三种不同的AI开发平台。Coze(字节跳动)主打低代码可视化开发,适合快速搭建简单应用;Dify作为开源LLM平台,侧重企业级解决方案,支持复杂工作流;LangChain是开源框架,通过编程接口提供高度灵活性。三者在模型支持、知识库管理等方面各有优势:Coze易用性强,Dify功能全面,LangChain扩展性佳。选择取决于需求复杂度——简单应用选Coze,企业级需求用Dify,定制化开发则适合LangChain。原创 2025-07-30 13:19:55 · 1071 阅读 · 0 评论 -
一个简单的聊天助手智能体
本文介绍了如何利用Dify平台开发聊天助手智能体。Dify作为开源LLM应用开发平台,支持从Agent构建到AI工作流编排等多种功能。开发过程包括:创建聊天助手应用、编排提示词和开场白、调试模型响应、发布应用等步骤。通过设置专业提示词如旅游规划场景,并添加对话开场白提升用户体验。开发者可在本地部署大模型进行调试,最终将应用发布为可交互的Web服务或API。该方案展示了使用Dify快速构建对话式AI应用的完整流程,为日常对话场景提供了实用解决方案。原创 2025-07-30 11:04:20 · 1068 阅读 · 0 评论 -
Docker+Dify+Ollama实现本地大模型部署
本文详细介绍了Docker环境搭建及Dify、Ollama的本地部署流程。首先讲解了Docker Desktop的下载安装、配置镜像源及验证方法;其次说明Dify源码获取、环境配置和启动步骤;然后介绍Ollama的安装、模型路径设置及本地大模型下载;最后展示如何在Dify工作台关联Ollama本地模型。整个部署过程包含环境配置验证、服务启动检查等关键步骤,最终实现在本地完成Dify智能体开发环境的搭建。原创 2025-07-29 16:27:05 · 1971 阅读 · 0 评论
分享