自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(959)
  • 收藏
  • 关注

原创 Api调用大模型(实用)

本文详细介绍了使用OpenAI官方库调用大模型API的完整流程。从环境配置、API密钥获取到核心调用方法,包括基础单轮对话、多轮上下文交互和流式实时响应。重点解析了关键参数(temperature、top_p等)的作用及使用场景,帮助开发者快速掌握大模型API调用的核心技能。通过SiliconFlow平台的Qwen2.5-7B-Instruct模型示例,展示了从初始化到实战的全过程,为开发者提供了可直接复用的代码模板。

2025-08-22 14:07:28 250

原创 AI辅助编程:常用的7种Prompt模式

本文介绍了ChatGPT共享链接功能及其衍生的DevGPT数据集在AI辅助编程研究中的应用。该数据集收集了2万余条用户与ChatGPT的对话记录,用于分析开发人员使用AI工具的行为模式。研究总结了7种常见提示语模式:Persona(角色定义)、Recipe(步骤指导)、Template(格式模板)、OutputAutomator(机器可读输出)、Instructions-Based(简单指令)、ContextandInstructions(带背景的指令)和Question(直接提问)。这些模式可单独或组合使

2025-08-22 14:02:36 339

原创 击败Meta登榜首:推理增强的文档排序模型ReasonRank来了

本文提出ReasonRank,一种基于推理大模型的文档排序方法。针对推理密集型训练数据稀缺问题,作者设计了自动化数据合成框架,利用DeepSeek-R1生成13K多领域高质量训练数据,并采用两阶段训练(SFT+RL)框架。实验表明,ReasonRank在BRIGHT、R2MED等推理型IR榜单上取得SOTA,其7B版本甚至超越32B基线模型。该方法在排序效率上也优于传统pointwise排序器,并获得了Huggingface论文日榜第一。未来工作可探索混合数据训练和全排序推理方法。

2025-08-22 13:59:37 237

原创 初识机器学习算法 - AUM时间序列分析

本文介绍了时间序列分析在客户资产预测中的应用。时间序列分析通过挖掘历史数据中的趋势、季节性和周期性模式,为金融机构预测客户未来AUM变化提供科学依据。文章详细阐述了时间序列分析的组成成分、主要方法,并展示了ARIMA模型在10,000条客户数据上的实战应用,实现了90天预测期15.2%的误差率。同时揭示了AUM变化的趋势特征、季节性规律和客户画像,为投资决策和风险管理提供支持。文章还探讨了时间序列分析在电商、医疗等行业的应用价值,并指出其局限性和改进方向。最后强调,合理运用时间序列分析能显著提升金融机构的预

2025-08-22 13:57:03 277

原创 小白跟着 NanoGPT 学习 Transformer

摘要:本文解析了自注意力机制的核心原理,通过query/key/value三个语义向量实现上下文感知的动态embedding。详细解释了多头注意力计算过程,包括相似度计算、softmax归一化和加权求和等步骤。同时探讨了位置编码的设计思路,比较了拼接和相加两种方式的优劣。最后以NanoGPT为例,展示了自注意力层的代码实现,包括线性变换、多头分割、注意力计算和输出投影等关键步骤,并简要说明了整体网络架构和训练流程。

2025-08-22 13:41:53 128

原创 基于 Transformer.js 的浏览器端文本转语音应用

本文介绍了一个基于Transformer.js的浏览器端文本转语音(TTS)应用,该应用通过加载HuggingFace开源模型,实现了完全在本地浏览器中运行AI推理任务。文章详细解析了其技术架构,包括使用React构建UI界面、WebWorkers处理计算任务、单例模式管理模型实例、多音色支持等关键技术。该方案解决了传统TTS服务的隐私风险和网络依赖问题,所有计算均在用户设备上完成,支持离线使用且不收集用户数据。文章还阐述了完整的语音生成流程,从文本输入到音频播放的详细步骤,并总结了该应用的隐私保障、异步处

2025-08-22 13:29:45 397

原创 从经典产品看大模型方向

互联网行业十年发展经历了信息化、数字化、智能化三个阶段。2016年信息化起步,OA办公实现无纸化;2020年数字化推动低代码和SaaS普及;2022年后AI崛起,从ChatGPT到生成代码,逐步渗透各领域。这些技术演进虽伴随质疑,但最终都悄然改变行业生态。

2025-08-22 13:26:28 321

原创 模型无关元学习(MAML)在AI Agent快速适应中的应用研究

摘要:本文探讨了模型无关元学习(MAML)在提升AIAgent快速适应能力中的应用。通过元学习技术,AIAgent能够利用少量数据快速适应新任务,相比传统方法显著提升效率。文章介绍了MAML算法的实现原理,并提供了强化学习中的代码示例。研究表明,元学习在自动驾驶、游戏AI等领域具有广泛应用价值,能够有效解决训练效率、任务多样性等挑战。通过自适应算法和知识蒸馏等优化策略,可进一步提升AIAgent在动态环境中的适应能力。

2025-08-22 13:24:50 269

原创 Trae核心架构解析:动态计算图设计原理

本文深入探讨了TensorFlow 2.x中的Trae动态计算图技术。全文分为六个部分:首先介绍了计算图的发展历程,对比了静态图和动态图的优缺点;其次详细解析了Trae动态图的构建与执行机制,包括张量操作、控制流融合等核心功能;然后阐述了自动求导的实现原理与应用方法;接着分析了内存管理与性能优化策略;最后通过实战案例展示了如何利用Trae构建动态RNN模型。文章还探讨了动态图与静态图的融合方案,重点介绍了tf.function转换技术。整体呈现了Trae技术在深度学习开发中的优势与创新价值。

2025-08-22 13:22:05 348

原创 和AI畅聊不掉线:本地部署LLM聊天界面全攻略

本文介绍了如何通过Ollama平台在本地部署大型语言模型(LLM)来打造私人AI聊天助手。教程详细说明了Ollama的安装和模型部署过程,并展示了一个基于React+Vite前端和Koa+Node.js后端的聊天应用架构。文章重点讲解了前后端实现的关键代码,包括Markdown格式渲染、跨域处理等功能,并比较了本地部署相比云端服务的优势:数据隐私保障、响应速度快、成本更低。最后还提供了项目运行效果展示、扩展玩法建议以及常见问题的解决方案。

2025-08-22 13:04:59 504

原创 智能体防御 | 一文了解三种系统提示词加固方法

摘要:系统提示词加固是通过优化提示词内容和结构,增强对AI模型的约束力和指导性,确保其行为安全合规。加固分为主动防御、职责和格式三类,需结合模型类型和应用场景灵活采用。实验表明,合理加固可使攻击成功率从30%-75%降至2%以下。该方法简便高效,是提升智能体安全性的重要手段。(149字)

2025-08-21 13:39:54 718

原创 记忆即推理:ComoRAG的认知循环如何重塑长文本理解

ComoRAG:认知启发的状态式推理系统解决长叙事理解挑战 本文提出ComoRAG系统,通过模拟人类前额叶皮层的元认知机制,实现了对复杂叙事文本的状态式推理。该系统创新性地构建了层次化知识源(事实层、语义层、情节层)和动态记忆工作区,采用元认知控制循环来解决传统RAG方法在长文本理解中的局限性。实验表明,ComoRAG在四大长叙事基准测试中相对基线提升高达11%,特别在需要全局理解的叙事型查询上表现突出。案例研究证实,该系统能有效整合分散线索,解决如"斯内普为何杀死邓布利多"等复杂叙事矛

2025-08-21 13:37:38 329

原创 Kubernetes成本持续攀升,AI能否带来转机?

调查显示,88%使用Kubernetes的企业过去一年成本上涨,92%正投资AI工具优化开支。专家指出,资源过度配置、架构决策不当和人力成本是主因,开发人员常预留过多资源以防意外。部分企业已出现18%的支出增长,其中31%工作负载CPU利用率长期低于25%。虽然现有工具效果有限,但AI驱动的资源自动调整和FinOps方案正成为新趋势。专家建议企业平衡创新投入与成本管控,区分必要开支与战略投资。

2025-08-21 13:35:45 383

原创 AGUI 与 n8n 结合的调研与实践:列举使用场景

AGUI与n8n融合的智能交互系统通过三层架构实现自然语言到自动化任务的闭环。系统核心包括:1)AGUI提供标准化JSON界面协议;2)n8n负责流程编排与执行;3)LLM实现自然语言到结构化UI的转换。典型应用场景包括:GPU资源申请(动态表单生成+审批流程)、IT报修(对话式工单创建)和项目协同(多角色任务分配)。系统优势在于通过LLM理解意图生成交互界面,AGUI统一前端体验,n8n灵活处理后端流程,形成"语言输入-界面生成-任务执行-状态反馈"的完整自动化链路。

2025-08-21 13:24:21 463

原创 最浅显易懂的自注意力机制讲解,杜绝QKV

本文深入浅出地解析了自注意力机制的核心原理与应用价值。作者首先批判了仅用术语翻译解释QKV的常见做法,强调需要理解其设计逻辑:通过矩阵并行处理解决RNN的序列依赖和并行计算难题。文章阐明自注意力三大创新点:1)全局矩阵处理实现并行计算;2)三角函数位置编码保留序列信息;3)动态权重分配捕捉长距离依赖。特别指出QKV并非传统检索模型,而是基于输入X的自我交互过程。最后从技术评估框架分析,自注意力机制因其反共识性(突破顺序处理)、广泛适用性和较低应用成本,成为Transformer革命性突破的关键。文章为理解注

2025-08-21 13:08:18 626

原创 使用Llama-Factory进行模型训练与微调-环境准备与工具部署

本文介绍了在WSL环境下使用llama-factory进行大模型训练的完整流程。主要包括:1)安装WSL和Ubuntu;2)下载llama-factory项目;3)通过conda创建Python3.10运行环境;4)安装llama-factory及其依赖项;5)使用Qwen1.5-0.5B模型和内置数据集进行简单训练演示。文中详细说明了各步骤的具体操作命令和注意事项,特别针对安装过程中的常见问题提供了解决方案,如使用清华镜像加速下载、处理transformers版本不兼容等问题,适合初学者快速搭建大模型训练

2025-08-21 13:03:57 445

原创 Agent Memory 产品解决方案

AIAgent记忆技术概述 AIAgent记忆系统模拟人类记忆机制,用于存储和管理任务过程中的信息,实现持续学习和长期任务处理。主要分为三类:语义记忆(结构化知识)、情节记忆(交互历史)和程序性记忆(执行流程)。技术方案按存储方式(短期/长期)、检索方式(关键词/向量/混合)分类,主流产品包括: 开发框架:如LangChain(生态丰富)、Camel-ai(多智能体协作); 向量数据库:ChromaDB(轻量)、Weaviate(高性能); 记忆管理平台:Zep(专为Agent设计)、mem0(个性化体验)

2025-08-21 11:27:39 679

原创 ollama 终于有UI了,但我却想弃坑了

Ollama 1.8版本更新带来图形界面,降低使用门槛,但功能仍较基础。新增Turbo会员服务(20美元/月),提供云端大模型支持。平台面临挑战:Meta开源模型表现不佳,部分热门模型未首发Ollama,开发者开始转向其他平台。用户反映存在下载管理、模型查询等技术问题,部分开发者考虑迁移至LMStudio等替代平台。整体更新亮点有限,商业化步伐加快但创新不足。

2025-08-21 11:22:42 287

原创 FastMCP深度解析:ctx.sample() 如何实现LLM任务逆向委托

MCP采样机制创新性地解决了传统Model-Client-Protocol架构中服务器端LLM应用的痛点。该机制通过"双向调用"模式,允许服务器将LLM任务(如文本生成、数据分析)卸载到客户端执行,实现三大核心优势:1)分布式计算提升扩展性,避免服务器性能瓶颈;2)成本转移至客户端,大幅降低运营开支;3)客户端自主选择LLM模型,确保灵活性。FastMCP框架通过异步非阻塞设计、安全边界控制和标准化协议,使采样机制可广泛应用于智能文档处理、个性化内容生成等场景,实现了服务器逻辑与动态AI

2025-08-21 11:20:27 414

原创 LangChain 设计原理分析 | 向量数据库与 Retriever 机制

本文介绍了向量检索的核心概念与实践方法,重点解析VectorStore与Retriever在LangChain中的分工,比较FAISS和Chroma的适用场景,并演示如何通过as_retriever()将向量库接入RAG流程。主要内容包括:概念区分(VectorStore负责存储检索,Retriever负责业务封装);工具选择建议(FAISS适合大规模场景,Chroma适合快速原型);实践示例展示两种向量库的完整集成流程;以及工程化调优要点(文本切分、索引配置、持久化等)。最后提供了自定义Retriever

2025-08-21 11:16:13 654

原创 什么样的智能体才算“真正能干活”?

文章摘要: 当前多数AI智能体平台仍停留在"高级玩具"阶段,缺乏实际业务能力。作者提出工具→数字员工→智能体平台的三层架构,强调工具属性(API/代码执行能力)是智能体落地的关键。通过构建考核自动化数字员工案例,展示了如何组合多个工具(Excel处理、Word生成、邮件发送等)实现业务流程自动化。文章指出当前平台的主要缺陷是工具能力薄弱,并提出MCP(模型连接协议)作为连接大模型与工具层的解决方案,强调开发者定义工具、平台负责调度的协作模式,最终实现可控、可维护的企业级AI数字员工系统。

2025-08-20 14:31:18 730

原创 ChatBI的实现与落地

2025年是AIAgent发展的关键元年,ChatBI作为结合聊天机器人和商业智能的新型应用备受关注。文章对比分析了三种主流ChatBI方案:NLP2SQL方案虽灵活但准确率低,指标平台方案准确率高但依赖性强,报表系统方案易落地但灵活性差。实践表明,指标平台方案在SQL准确度上表现更优,但仍面临语义解析、业务术语理解等挑战。建议通过优化提示词、完善知识库、微调模型和持续迭代来提升ChatBI性能。随着AI技术进步,ChatBI有望成为企业智能分析的重要工具。

2025-08-20 14:26:50 577

原创 MCP工具多了咋办,效率高吗?

本文分析了MCP协议中LLM处理大规模工具列表时的挑战及优化方案。主要问题包括工具描述模糊、上下文长度限制和决策效率下降。解决方案包括:分层工具发现(动态加载)、优化工具描述(标准化模板+向量检索)、主动过滤与优先级排序、分步决策(LLM+规则引擎)等。同时提出兜底方案如错误反馈和人工干预接口。相比OpenAI方案,MCP协议通过分层加载、结构化描述和混合决策等设计,能更高效处理复杂工具生态,平衡效率与灵活性。

2025-08-20 14:24:07 970

原创 AI时代必备技能:深度解析流式输出与SSE实战

文章摘要: 2025年AI智能体爆发时代,流式输出技术成为前端开发的核心竞争力。本文解析流式输出的必要性:大模型Token逐生成特性、用户体验优化(降低等待焦虑),并重点介绍SSE(Server-Sent Events)技术实现方案。通过对比SSE与WebSocket,提供前端到后端的实战代码(模拟AI聊天逐字输出),涵盖生产级优化(错误重连、内存管理)及打字机动效等最佳实践。流式输出是AI产品实时交互的关键,适用于代码生成、写作助手等场景,助力开发者打造极致用户体验。

2025-08-20 14:16:53 429

原创 告别繁琐的图片处理!Cursor + MCP = 你的自动化前端开发神器

本教程介绍了如何构建一个基于MCP协议的图片处理工具,重点展示了动态工具发现机制与Cursor IDE的集成。项目采用TypeScript开发,包含图片调整大小、滤镜应用和裁剪三大核心功能模块,通过Zod进行严格的参数验证,并支持工具的动态注册和发现。教程详细讲解了项目结构、核心实现、Cursor集成配置以及完整交互流程,同时提供了最佳实践和快速上手指南。该工具具有自动工具识别、智能参数提示和良好的扩展性等特点,可作为开发MCP应用的参考模板。

2025-08-20 14:12:19 327

原创 快闪反应:Trae 一句话生成的手速挑战

这篇文章介绍了一款名为"快闪反应"的游戏及其开发过程。游戏通过随机显示颜色或数字,考验玩家的快速反应能力。传统开发需要编写随机提示、输入检测、计时计分等逻辑,但使用TraeIDE工具,只需简单描述游戏规则即可自动生成完整游戏框架。文章展示了游戏玩法、Trae的快速生成能力,以及如何通过自然语言指令扩展游戏功能(如排行榜、双人模式等)。最后提供了完整的HTML/CSS/JavaScript代码实现,包含颜色/数字模式、难度选择、计分系统等完整功能,展现了从创意到成品的快速开发过程。

2025-08-20 13:48:20 951

原创 让流浪汉都能学会的大模型教程——关于大模型的误解、局限和惊人本事

大语言模型与人类认知的差异与局限 摘要: 本文深入探讨了大语言模型(LLM)与人类认知的本质差异,揭示了当前AI技术的局限性。研究表明,LLM的学习方式与人类截然不同:1)模型通过海量数据训练而非交互式学习;2)其知识获取是一口吞而非渐进式;3)不具备真正的理解能力,仅是概率预测。实验显示,即使采用思维链(CoT)等提示技术,模型仍受限于计算复杂度(O(n²)),无法突破P类问题边界。值得注意的是,LLM存在"边算边说"的特性,无法进行内部思考,且训练后无法自我进化,必须依赖外部数据更新

2025-08-20 13:43:05 608

原创 GLM-4.5系列模型导读,综合能力更强的高性价比模型

智谱发布新一代开源模型GLM-4.5系列,采用MOE架构和混合推理模式,包含355B和106B参数两个版本。模型在推理、代码和智能体任务上表现优异,在12项基准测试中排名第三,代码生成胜率最高达80.8%,智能体任务工具调用成功率90.6%。通过强化学习和专家蒸馏优化性能,相比同类模型参数更少但效率更高,API调用成本更低。技术细节包括GQA注意力、旋转位置编码等创新,模型已在真实编程任务测试中展现优势。

2025-08-20 13:37:08 585

原创 LangGraph革命:用动态断点破解AI Agent高危操作困局

HIL架构通过人类介入AI决策过程实现安全与效率平衡。文章分析了HIL在金融、医疗等高风险场景的核心价值,重点介绍了LangGraph的四大创新设计:图结构状态管理、动态-静态双模断点、状态无损恢复引擎和工具调用级安全管控。以金融交易系统为例,展示了金额超过10万元时触发人工审批的实战应用,包括动态断点检测、审批流程和状态恢复机制。最后提出了审批链路由策略、性能优化和安全增强等实际项目优化方案,如增量状态存储、四眼原则审批等,确保系统在关键操作中保持高效与安全。

2025-08-20 13:26:13 582

原创 LLaMA 3:离 AGI 更近一步?

Meta发布新一代开源大模型LLaMA3,包含8B和70B两个版本,采用完全开放的商用许可。相比前代,LLaMA3训练数据量扩大7.5倍至15T tokens,支持8K上下文,并优化了tokenizer和并行训练策略。其对话模型LLaMA3-Instruct结合多种对齐技术,在多个任务中接近GPT-3.5水平。该模型突出开放性优势:采用Apache2.0协议,支持主流框架和云平台,未来将拓展多模态和128K长文本支持。关键突破在于优化架构设计、数据质量和对齐技术,通过高效训练方法实现性能领先,其开放策略相比

2025-08-20 13:06:55 362

原创 两个一样的MCP,大模型会怎么选择

摘要:当多个MCP工具的注释内容完全相同时,大模型在调用时会出现工具冲突现象。实验通过创建两个功能不同但注释相同的减法工具(一个实际执行乘法,一个执行减法)进行验证,发现大模型会随机调用其中一个工具。这表明仅依赖注释存在安全风险,攻击者可能通过伪造注释相同的恶意工具实施投毒攻击。成熟的MCP客户端会通过用户授权来防范此类风险,但自定义脚本可能缺乏防护机制。

2025-08-19 14:15:46 225

原创 轻松理解vLLM:大语言模型推理的高效利器与实用示例

vLLM是一个高效开源框架,专为大型语言模型(LLM)推理优化设计。其核心PagedAttention技术借鉴操作系统分页思想,将注意力计算分块管理,显存利用率高达96%,显著提升性能。vLLM支持多GPU并行、多种解码算法,兼容HuggingFace模型和OpenAI API,在推理速度上比传统框架快3.5-24倍。该框架适用于聊天机器人、长文本生成等高并发场景,通过简单API即可实现性能提升,无需修改模型结构。

2025-08-19 14:03:07 846

原创 迈向可信 AI:LLM 幻觉的分析与优化

本文系统分析了LLM幻觉现象的产生原因、表现类型及优化方案。幻觉指模型生成与事实不符或虚构的信息,主要包括事实性、上下文和逻辑三种类型。其成因源自模型训练数据局限、概率采样机制及信息时效性等问题。虽然幻觉在创意领域有优势,但会降低可信度。针对性地提出了Prompt优化设计、RAG检索增强、采样参数调整、SFT监督微调、强化学习对齐、思维链推理和Agent工作流七种优化路径,以平衡创造性与准确性。未来需持续完善技术手段,提升模型的事实一致性和推理能力,释放大模型应用潜力。

2025-08-19 13:58:57 1001

原创 使用工具:扩展模型能力的实用指南

《扩展AI模型功能的工具指南》介绍了如何通过多种工具增强模型能力。文章列举了7种实用工具:网络搜索(获取最新信息)、文件搜索(检索上传内容)、函数调用(执行自定义代码)、远程MCP服务器(扩展功能)、图像生成(创建/编辑图片)、代码解释器(安全执行代码)和计算机控制(自动化工作流)。重点说明了在API请求中通过tools参数启用工具的方法,并指出模型会根据需求自动选择工具,用户也可通过tool_choice参数手动控制。文中提供了JavaScript和Python的代码示例,展示如何集成网络搜索工具获取实时

2025-08-19 13:44:10 229

原创 深入浅出理解 Transformer 的模型结构与注意力机制

Transformer模型是一种基于注意力机制的深度学习架构,解决了传统RNN/LSTM无法并行处理和长距离依赖的问题。其核心结构包括:1)词嵌入和位置编码构建输入;2)自注意力机制让每个词关注全局信息;3)多头注意力多维度捕捉语义;4)前馈网络增强非线性;5)残差连接与层归一化稳定训练。相比编码器仅处理输入,解码器还使用掩码注意力实现自回归生成。该架构通过并行计算和全局注意力,在机器翻译等任务中展现出显著优势,成为NLP领域的重要基础模型。

2025-08-19 13:39:17 891

原创 学习 Coze Studio 的知识库入库逻辑

本文介绍了CozeStudio知识库创建流程的后端实现,重点解析了文档上传接口的核心处理逻辑。系统采用分层架构,通过接口层、应用层和领域层协同工作,支持文本、表格和图片三种知识库类型。文档处理器采用工厂模式,统一处理流程:前置存储、构建模型、数据入库和索引计算。特别对表格知识库的处理机制进行了详细说明,包括数据结构校验、动态建表等特性。最后通过消息队列实现异步索引计算,确保系统性能。整个过程体现了模块化设计思想,支持灵活扩展。

2025-08-19 13:25:27 740

原创 LLaMA2-大模型开源了!

摘要: Meta推出的LLaMA2是开源大模型的重要里程碑,包含基础模型(7B/13B/70B)和对话模型(LLaMA2-Chat),全面开源且支持商用。相比初代LLaMA,其训练数据翻倍至2T token,采用GQA等优化技术,并引入三阶段对齐流程(SFT、RLHF、拒答机制),显著提升安全性与对话质量。评估显示,LLaMA2-Chat 70B在代码、推理等任务上媲美GPT-3.5,成为开源领域最接近闭源SOTA的模型,标志着可控AI的突破。

2025-08-19 13:15:27 799

原创 软件开发核心流程全景解析 —— 基于 AI 多模态项目实践

本文系统阐述了软件开发全流程管理方法,基于AI多模态项目实践,构建了从需求分析到部署上线的完整框架。重点解析了需求定义、模块设计、分层开发(前端Vue3+后端Node.js)、测试验证等核心环节的技术规范与协同机制,提供了前后端交互示例。通过分层架构设计、标准化接口定义和全链路质量管控,确保系统实现业务目标的同时具备工程化质量,为复杂软件开发提供可落地的实践指导。

2025-08-19 13:08:37 982

原创 MCP 服务器与 FastAPI 的集成

MCP(模型上下文协议)是AI与API间的标准化通信层,使AI代理能理解并调用外部API。它通过结构化描述API功能,消除手动集成需求。文章介绍了三种MCP集成方式:1)与FastAPI应用结合自动生成MCP模式;2)在Python项目中使用@mcp.tool()装饰器;3)通过Docker容器打包。并以加法工具为例,演示了从创建FastAPI服务到配置Claude桌面代理的完整流程。MCP为开发者提供了让AI智能调用API的高效方案,是构建AI驱动应用的重要技能。

2025-08-19 13:04:57 982

原创 从 Coze 到 Dify:一个 智能体开发者的趟坑与顿悟

本文记录了一位开发者从Coze平台转向Dify时遭遇的认知转变过程。Dify采用"专业化应用模型"设计,与Coze的"全能机器人"理念不同,要求开发者根据需求选择聊天应用或智能助手类型。文章详细解析了如何通过Chatflow模式实现"文件上传+插件调用"的复杂需求,强调在Dify中LLM节点和Agent节点的职责区分,以及FunctionCalling与ReAct两种Agent模式的适用场景。最终提出四点核心结论,帮助开发者理解Dify的底层逻辑,

2025-08-19 12:58:50 674

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除