- 博客(216)
- 收藏
- 关注
原创 一个大模型落地的技术详解-包括预训练,微调,蒸馏,强化学习-一篇文章了解它们
《AI的认知锻造:从数据洪流到类人智能的工程革命》 本文系统剖析了大语言模型(LLM)从"数字胚胎"成长为"智能伙伴"的四阶段工业化流程:1)预训练阶段如同构建数字亚历山大图书馆,通过自监督学习内化万亿文本的隐性知识;2)监督微调阶段实施"社交礼仪训练",使AI学会响应人类指令;3)RLHF阶段通过强化学习让AI掌握人类微妙偏好,形成价值观判断;4)知识蒸馏与LoRA技术突破效率瓶颈,实现大模型能力的普惠化部署。文章揭示了现代AI研发已形成标准化&
2025-08-12 11:01:10
813
原创 未来的认知架构:深入剖析自主AI研究智能体
摘要:深度研究智能体的架构与运行机制 深度研究智能体代表了信息获取方式的范式变革,从被动检索转向主动的知识综合。这类AI系统通过模块化架构实现认知工作流的自动化,其核心组件包括:作为推理引擎的LLM基础层、负责任务分解的规划模块、支持上下文感知的记忆模块,以及与数字世界交互的感知与行动模块。智能体通过迭代循环运行:首先规划分解研究任务,然后自主探索并使用工具收集信息,最后综合验证构建知识体系。这种架构设计弥补了纯LLM的局限性,将静态语言模型转变为能执行复杂研究任务的功能实体,标志着从信息检索到知识自主发现
2025-08-11 15:48:41
839
原创 终极指南:万字长文从第一性原理到生产级框架,全面解析大模型推理优化
本文深入探讨了大语言模型(LLM)推理阶段的优化策略。首先剖析了LLM推理的底层机制,包括自回归生成过程和Prefill/Decode两阶段特性,指出Decode阶段的核心瓶颈是内存带宽而非计算能力。随后系统梳理了多层次的优化技术:模型压缩(量化、剪枝、知识蒸馏)可减小模型尺寸;KV Cache管理和FlashAttention等技术创新能显著降低内存需求;批处理策略和连续批处理技术可提升吞吐量;分布式推理框架则突破单机限制。文章还分析了vLLM、TensorRT-LLM等主流推理框架的特性,并提供了技术选
2025-08-06 16:57:57
602
原创 LLM推理框架的“权力的游戏”:vLLM之后的群雄逐鹿
摘要: 本文深入对比了三大高性能LLM推理框架:NVIDIA的TensorRT-LLM通过AOT编译实现硬件级优化,适合追求极限性能的NVIDIA用户;UC伯克利的SGLang以结构化语言革新复杂任务交互,显著提升Agent工作流效率;MMRAI的LMDeploy凭借全链路工具链和异构硬件支持(如AMD)成为多场景部署首选。三者与vLLM、Ollama构成互补生态——vLLM仍是高吞吐通用标杆,Ollama保持本地开发易用性。选择需权衡性能需求(单卡/复杂逻辑/多硬件)、开发成本与硬件环境,技术演进正推动L
2025-08-05 11:36:43
740
原创 向下扎根:Ollama与vLLM的底层优化哲学之争
Ollama和vLLM在模型优化上的侧重点和实现路径截然不同。Ollama将“量化”作为其核心竞争力,并将其做到了极致的普适和易用;而vLLM的核心是其运行时的吞吐量优化(如PagedAttention),它能够高效地利用“已经”被优化(包括量化或剪枝)过的模型。
2025-08-05 11:14:08
432
原创 本地与云端之战:Ollama 与 vLLM,谁是 LLM 推理服务的王者?
本文对比了两种流行的开源大语言模型部署方案:Ollama和vLLM。Ollama以其极简的本地化部署著称,通过llama.cpp引擎和GGUF模型格式实现一键运行,适合个人开发与隐私敏感场景;而vLLM则专为云端高并发设计,凭借创新的PagedAttention内存管理技术实现卓越吞吐量,是企业级应用的理想选择。文章从核心技术、性能表现、适用场景等维度进行详细对比,指出Ollama优势在于易用性和数据隐私,vLLM则在处理大规模请求时性能更优。最后建议开发者根据实际需求选择,并展望两者未来可能的融合趋势。
2025-08-05 11:07:03
944
原创 LLM 上下文退化:当越长的输入让AI变得越“笨“
大语言模型的"上下文退化"现象:输入越长,性能越不可预测。最新研究显示,当输入超过临界长度,主流模型(如GPT-4、Claude等)会出现断崖式性能下降,表现为随机错误、记忆混乱等问题。不同模型表现各异:Claude稳定性最佳但会主动中断,GPT系列随机错误频发,Gemini最早出现退化。本质是模型注意力机制的资源分配失衡。应对策略包括:构建上下文管理模块、采用检索增强生成(RAG)、设计多模型切换架构,以及使用领域专精的小模型。文章警示盲目追求长上下文窗口的风险,提出"少即是
2025-07-22 11:22:23
786
原创 解锁RAG效能:15种分块策略秘籍(附实战案例)
文章摘要:本文系统介绍了15种实用的数据分块策略,用于优化检索增强生成(RAG)系统的性能。从基础的逐行分块到高级的语义分块,每种方法都配有应用场景和示例说明。重点策略包括:对话场景适用的逐行分块、非结构化数据的固定尺寸分块、保持上下文连贯的滑动窗口分块、保留语义完整的句子级分块,以及针对特定需求的表格分块、实体分块等方法。文章强调应根据数据类型、模型特性和业务需求选择合适的分块策略,以平衡检索精度与计算效率。
2025-07-22 10:27:53
926
原创 高级RAG技术全景:从原理到实战,解锁大模型应用的进阶密码
摘要:检索增强生成(RAG)技术弥补了大模型在领域知识、实时信息和幻觉内容三方面的缺陷,已成为企业级AI应用的核心架构。RAG的演进经历了朴素RAG、高级RAG和模块化RAG三个阶段,通过查询转换、多源检索、索引优化和后处理等高级技巧显著提升效果。当前RAG正向"智能体化"发展,结合推理能力实现更动态的检索生成交互。LlamaIndex等框架让开发者能快速构建生产级RAG系统,支持复杂查询和超大规模数据处理。随着技术持续进化,RAG正从工具升级为具备自主决策能力的智能助手。
2025-07-16 13:46:36
748
原创 从“拆文档”到“通语义”:RAG+知识图谱如何破解大模型“失忆+幻觉”难题?
摘要 RAG技术正从简单分块检索向"智能分层+知识图谱"方向进化。传统RAG存在分块过大丢失细节或过小缺乏上下文的问题,而高级RAG采用1024 token动态分块、20-30%重叠分块等策略平衡精度与完整性。更创新的"父子分段"方法通过小块检索、大块生成既确保检索精准又保留上下文。文档层次结构(如Raptor框架)将知识组织为树状层级,通过摘要逐层筛选提升效率50%以上。知识图谱则构建实体关系网络,解决语义相似性检索的局限,使系统能理解"红袜队属于MLB&
2025-07-15 16:57:58
936
原创 从“失忆“到“过目不忘“:RAG技术如何给LLM装上“外挂大脑“?
RAG技术:让大模型摆脱"健忘症"的智能外挂 大语言模型虽强大却存在知识时效性差和无法处理新数据的缺陷。检索增强生成(RAG)技术通过外接知识库,赋予模型实时检索能力,成为LLM落地的关键组件。 技术演进: 基础RAG实现"检索-生成"闭环,解决80%简单问答 高级RAG引入智能分块、混合检索、查询路由等优化,处理复杂问题 代理机制让系统具备自主任务分解能力 优化关键: 领域微调提升专业场景准确率 严谨评估体系(相关性/忠实度)保障质量 未来趋势:轻量化模型、智能检索
2025-07-15 10:43:23
990
原创 RAGFlow的检索神器-Elasticsearch的神速检索道具-层次导航小世界图(HNSW):高维向量空间中的高效近似最近邻搜索算法
摘要 层次导航小世界图(HNSW)算法是目前最先进的近似最近邻搜索方法之一,通过构建多层小世界网络实现高效高维向量检索。本文系统分析了HNSW的核心原理:结合跳表的层次化结构和小世界网络的捷径特性,采用"自上而下"的渐进式搜索策略将查询时间压缩至毫秒级。实验基于FAISS库在新闻检索任务中验证了其高效性,10,000条768维数据的平均查询响应仅5.58毫秒,精度接近KNN。HNSW在搜索引擎、推荐系统等领域具有广泛应用前景,未来可探索动态更新、分布式扩展等方向。该算法为大规模高维数据检
2025-07-11 15:10:19
1417
原创 检索增强生成(RAG)综述:技术范式、核心组件与未来展望
摘要 大型语言模型(LLMs)在自然语言处理任务中表现出色,但仍面临幻觉现象、知识时效性不足和透明度缺失等问题。检索增强生成(RAG)技术通过结合外部知识库的非参数化知识与LLMs的参数化知识,有效缓解了这些局限。本文系统梳理了RAG的发展脉络,分析了Naive RAG、Advanced RAG和Modular RAG三种技术范式的特点,并深入探讨了检索器与生成器的核心技术与优化策略。此外,文章还从增强阶段、数据源和过程三个维度总结了RAG的优化方法,阐述了其评估体系与关键指标。最后,展望了RAG在垂直优化
2025-07-11 15:01:55
613
原创 从零构建MCP服务器:FastMCP实战指南
摘要: FastMCP框架简化了MCP协议(Model Context Protocol)的实现,让开发者通过Python快速构建AI模型与外部服务的连接工具。本文分步演示了如何从零搭建MCP服务器:1)安装FastMCP;2)创建基础服务器;3)用装饰器添加可调用工具(如计算函数);4)定义静态资源(如配置数据);5)实现动态资源模板(如个性化问候);6)启动服务。该框架自动处理协议细节(JSON-RPC、类型校验),支持STDIO/HTTP传输,使开发者只需专注业务逻辑,即可为LLM提供扩展能力。
2025-07-08 19:49:16
1556
原创 深入企业内部的MCP知识(四):FastMCP装饰器与类方法:正确结合面向对象与MCP组件的实践指南
本文探讨了FastMCP装饰器与类方法结合时的常见问题及解决方案。当直接装饰实例方法、类方法或静态方法时,会导致self/cls参数暴露或方法不可调用。正确的做法是:对于实例方法,先实例化再注册绑定方法;对于类方法,类定义后单独注册;对于静态方法,同样推荐事后注册。文章还提供了类初始化时自动注册组件的进阶模式。通过"事后注册"策略,既能保持面向对象设计,又能确保MCP组件被正确识别和使用。三种方法的处理方式总结为:实例方法需绑定后注册,类方法需类外注册,静态方法避免直接装饰。
2025-07-08 19:23:32
1003
原创 深入企业内部的MCP知识(三):FastMCP工具转换(Tool Transformation)全解析:从适配到增强的工具进化指南
摘要:FastMCP工具转换机制解析 FastMCP的工具转换(Tool Transformation)技术通过元数据修改、参数映射和行为扩展,实现通用工具到场景专属工具的快速适配。核心能力包括: 元数据改造:通过Tool.from_tool()修改工具名称、描述等,提升LLM调用准确性(如通用搜索→电商商品搜索) 参数级优化:使用ArgTransform进行参数重命名、默认值设置、隐藏内部参数等,改善接口友好性 行为扩展:通过transform_fn添加输入验证、输出格式化等逻辑,支持完全替换或扩展原始工
2025-07-08 19:22:35
1128
原创 深入企业内部的MCP知识(二):FastMCP客户端三大核心能力深度解析:资源、工具与提示的全场景实践
FastMCP协议通过资源、工具和提示三大核心能力实现高效模型交互。资源(Resources)提供结构化数据访问,支持静态文件读取和动态模板渲染;工具(Tools)作为功能执行单元,提供同步/异步调用方式,满足不同业务场景需求;提示(Prompts)通过模板化指令引导模型输出,提升开发效率。三者协同工作,构建从简单调用到复杂业务的全链路模型交互体系,同时支持权限控制和上下文感知等高级功能。
2025-07-08 14:28:30
854
原创 AI不止于掉包,从API调用到智能代理:AI系统开发的15条实战原则
摘要: 从API调用到构建生产级AI代理的15条实战原则,涵盖基础架构、决策模型、稳定性与负载保障。关键点包括:状态/知识外部化、模型可插拔、结构化工具调用、控制逻辑代码化、人工安全机制、微代理拆分、提示词工程化、全链路追踪等。强调工程化思维(如状态机、测试体系)与架构自主权,将LLM能力转化为可靠系统。核心理念是"先夯实基础再迭代功能",通过结构化设计平衡灵活性与稳定性,使AI代理从原型进阶为生产工具。
2025-07-07 10:50:54
568
原创 MCP的Client居然也这么重要!!
文章摘要:可视化MCP工具(如CherryStudio)与编程客户端(如FastMCP Client)存在本质区别。前者适合图形化操作,后者则是开发者的关键基础设施,在五大场景不可替代:1)自定义应用集成,2)自动化流程开发,3)复杂交互逻辑实现,4)测试与CI/CD,5)性能优化。编程客户端提供代码级控制能力,支持异步处理、参数调优和协议扩展,是构建复杂系统的核心工具。两者关系如同Excel与Python,可视化工具适合简单操作,编程客户端才能实现深度集成和业务逻辑扩展。
2025-07-04 10:25:53
796
4
原创 深入企业内部的MCP知识(一):FastMCP客户端深度解析:构建可靠的MCP服务交互桥梁
FastMCP客户端开发指南摘要 FastMCP是标准化的AI模型通信协议Python实现,提供类型安全与自动化连接管理。客户端支持多协议自动推断(内存/HTTP/Stdio传输),通过异步上下文管理连接生命周期,核心功能包括工具调用、资源访问与提示模板渲染。高级特性涵盖回调处理(日志/进度/LLM集成)和多服务器统一配置,适用于从单元测试到生产环境的全场景部署。开发者可快速构建与MCP服务的交互逻辑,实现高效模型服务化集成。
2025-07-04 10:21:01
992
原创 快速手搓一个MCP服务指南(十):FastMCP与ASGI应用集成指南:从独立服务到框架融合的全流程实践
本文介绍了FastMCP在ASGI生态中的集成方法,涵盖基础实例创建、服务运行配置、中间件集成、路由挂载以及与FastAPI的融合。主要内容包括:1)通过http_app()创建支持Streamable HTTP和SSE的ASGI应用;2)生产环境建议使用uvicorn+Gunicorn运行;3)添加CORS、认证等中间件;4)在Starlette/FastAPI中挂载MCP服务并管理生命周期;5)扩展自定义路由。文章强调版本兼容性,推荐Streamable HTTP模式,并提供了从基础到复杂的完整集成方案
2025-07-04 09:47:41
979
原创 目前最火的agent方向-A2A快速实战构建(八): AutoGen自定义智能体开发全攻略:从基础实现到模型集成的进阶指南
本文介绍了如何通过AutoGen框架自定义智能体,突破预设框架的限制,构建专属智能能力。文章从基础架构入手,解析了继承BaseChatAgent的核心方法,并以倒计时智能体为例演示了流式响应的实现。随后展示了功能型智能体的开发,如算术运算智能体及其在团队协作中的动态路径选择。最后探讨了如何直接集成外部模型(如Google Gemini API),为开发者提供灵活扩展方案。通过从简单到复杂的案例,系统讲解了自定义智能体的完整开发流程和关键设计点。
2025-07-03 17:11:12
375
原创 目前最火的agent方向-A2A快速实战构建(七):AutoGen 状态管理实战:从内存到持久化的完整指南
摘要: AutoGen的状态管理机制通过标准化序列化协议,解决了无状态服务中的上下文丢失问题。智能体(Agent)可通过save_state()和load_state()方法保存和恢复对话历史、模型上下文等状态(如llm_messages字段)。团队(Team)状态则递归包含所有成员状态,支持跨会话协作。状态可持久化为JSON文件或存入数据库(如PostgreSQL),并支持自定义扩展与优化(如历史裁剪、压缩存储)。实战中,FastAPI等框架可结合请求级状态管理,实现智能体应用的上下文延续。
2025-07-03 16:50:54
725
原创 目前最火的agent方向-A2A快速实战构建(六):AutoGen 人机交互(Human-in-the-Loop)指南:让AI协作融入人类智慧
摘要:AutoGen的人机协同机制 AutoGen的「人在回路」功能通过UserProxyAgent实现人类实时介入AI协作流程,支持两种核心交互模式: 运行中反馈:通过UserProxyAgent即时审批内容(如诗歌生成)、补充信息或纠正错误,支持Web服务集成(如FastAPI)。 运行后反馈:通过max_turns分阶段优化输出(如诗歌改写),或利用HandoffTermination让AI主动移交任务给用户。 实战案例展示了诗歌创作中的人机协同流程,结合终止条件组合、状态管理等技巧,适用于创意审核、
2025-07-03 14:46:40
893
原创 目前最火的agent方向-A2A快速实战构建(五):AutoGen多智能体团队(Teams)实战指南:从协作设计到复杂任务执行
摘要: AutoGen的多智能体团队框架通过标准化协作协议,将多个智能体的能力整合为有机整体,突破单一智能体的局限。本文以RoundRobinGroupChat为例,详细解析了多智能体团队的创建、运行与优化流程。通过"创作-评审"团队(诗人智能体+评论家智能体)的实战演示,展现了多轮协作、状态共享等核心机制,并介绍了团队监控、任务续跑等高级特性。文章还总结了反思模式、分工模式等设计方法,指出多智能体协作将AI应用从单轮工具调用升级为智能化工作流,为构建复杂AI系统提供了新范式。(150字
2025-07-03 11:41:48
1028
原创 目前最火的agent方向-A2A快速实战构建(四):AutoGen AgentChat智能体指南:从工具调用到多模态交互的全能助手
摘要:AutoGen的AgentChat框架中,智能体是执行复杂任务的核心组件,具备大语言模型推理、工具调用、多模态处理和流式交互等能力。本文详解了AssistantAgent的基础属性与核心方法,包括状态保持、消息处理和流式接口。重点介绍了工具调用流程、多模态消息处理以及Langchain工具集成等高级功能。还探讨了并行处理、结构化输出和上下文管理等实践技巧,并列举了企业客服、数据分析等应用场景。通过预设智能体和多智能体协作,开发者可以构建复杂的AI应用系统,实现LLM与现实任务的无缝对接。
2025-07-02 09:35:04
619
原创 目前最火的agent方向-A2A快速实战构建(三): AutoGen AgentChat消息系统:构建智能体交互的通信枢纽
摘要: AutoGen的AgentChat模块通过标准化的消息系统实现智能体间通信,包含代理间消息(文本/多模态)和内部事件(工具调用等)。文本消息(TextMessage)支持基础交互,多模态消息(MultiModalMessage)可传输图文组合数据。内部事件(如ToolCallRequestEvent)用于监控工具调用流程。开发者可通过事件监听构建客服系统、流程监控等应用,建议遵循消息标准化、异步处理等最佳实践。该消息系统作为智能体协作的语义层,显著提升交互灵活性与系统可观测性。
2025-07-02 09:24:22
895
原创 目前最火的agent方向-A2A快速实战构建(二): AutoGen模型集成指南:从OpenAI到本地部署的全场景LLM解决方案
在AI应用开发中,大语言模型(LLM)的选择往往决定了系统的能力边界。AutoGen通过标准化的模型客户端协议,实现了对OpenAI、Azure OpenAI、本地模型等多源LLM的统一接入,让开发者能够根据场景需求自由切换模型服务。本文将深入解析AutoGen的模型集成框架,从云端服务到本地部署,助你构建弹性可扩展的AI代理系统。
2025-07-01 22:02:21
777
原创 目前最火的agent方向-A2A快速实战构建(一):AutoGen AgentChat 快速入门:构建智能工具调用型AI代理
在AI应用开发中,大语言模型(LLM)的能力边界常受限于缺乏实时数据访问和特定功能执行能力。AutoGen的AgentChat模块通过预设智能体架构,让开发者能快速构建具备工具调用能力的AI代理,实现"模型推理+工具执行"的闭环。本文将通过天气查询案例,带你从零开始掌握AgentChat的核心用法,并揭示其背后的智能工具协作机制。
2025-07-01 21:25:32
930
原创 快速手搓一个MCP服务指南(九): FastMCP 服务器组合技术:构建模块化AI应用的终极方案
FastMCP框架的服务器组合技术通过import_server(静态复制)和mount(动态链接)两种机制,实现AI服务的模块化开发。静态组合适用于固化组件集成,动态链接支持实时更新;代理服务器功能则扩展了跨实例协作能力。技术特点包括: 模块化设计降低系统耦合度 双模式资源前缀(路径/协议格式)确保兼容性 代理模式支持微服务架构 最佳实践建议按功能域命名前缀,结合需求选择组合策略。该技术为构建可扩展、易维护的AI系统提供了高效方案,适用于从快速迭代到企业级应用的各类场景。
2025-07-01 20:42:41
1136
原创 释放数据处理潜力:13款顶级MCP服务器全面解析
作为数据整理师,你是否曾为繁琐的数据清洗、格式转换和跨平台整合耗费大量时间?传统数据处理流程中,手动操作往往成为效率瓶颈——从杂乱的CSV文件到分散在多平台的API数据,每一步都可能陷入"数据泥潭"。而MCP(Multi-Channel Processing)服务器的出现,正通过自动化与智能化能力重构这一现状。本文将深入解析13款适用于不同场景的MCP服务器,覆盖从网络数据采集到生物医学研究的全流程需求,助你在数据处理中实现"时间自由"。
2025-07-01 11:02:49
1084
原创 快速手搓一个MCP服务指南(八):FastMCP 代理服务器:构建灵活的 MCP 服务中介层
FastMCP代理服务器是分布式系统中的关键组件,它将客户端请求透明转发至后端服务,实现协议桥接、功能增强和安全控制。本文介绍了代理服务器的核心概念、创建方法和应用场景,包括通过as_proxy快速搭建代理、协议转换以及高级定制功能。典型案例展示了如何构建带认证的安全网关,通过中间件实现请求过滤。该技术为MCP生态提供了灵活的服务中介能力,支持构建更安全、可扩展的微服务架构,同时需要注意当前版本在流处理等高级功能上的限制。
2025-06-30 17:28:13
858
原创 快速手搓一个MCP服务指南(七):FastMCP 与 OpenAPI 集成:构建无缝 API 到 MCP 转换的桥梁
在现代软件开发中,API 集成已成为连接不同服务的关键环节。FastMCP 从 2.0.0 版本引入的 OpenAPI 集成功能,为开发者提供了将传统 REST API 无缝转换为 MCP (Model Context Protocol) 服务器的能力。本文将深入解析这一强大功能,从基础用法到高级定制,帮助你轻松实现 API 服务的现代化升级。
2025-06-30 17:16:22
1108
原创 快速手搓一个MCP服务指南(六):FastMCP 中间件:构建可扩展的 MCP 服务器架构
在现代分布式系统中,中间件作为处理跨领域关注点的核心组件,已成为构建可扩展、可维护应用的关键技术。FastMCP 从 2.9.0 版本引入的中间件系统,为 MCP(Model Context Protocol)服务器提供了强大的扩展机制。本文将深入解析 MCP 中间件的设计理念、核心功能与实践应用,帮助开发者构建更健壮、更灵活的 MCP 服务。
2025-06-30 16:03:30
1024
原创 快速手搓一个MCP服务指南(五):FastMCP 中 Bearer Token 认证的实现与最佳实践
FastMCP框架Bearer Token认证实现指南 本文详细介绍了FastMCP框架中Bearer Token认证的实现方法。作为基于令牌的身份验证方式,FastMCP采用非对称加密策略,无需共享密钥即可完成安全认证。文章从认证机制、核心配置、令牌管理、权限控制等维度展开,提供了静态公钥和JWKS端点两种配置方案,并强调了开发测试与生产环境的差异。通过示例代码展示了如何获取令牌信息、进行权限验证,最后给出生产环境配置建议,包括使用JWKS端点、最小权限原则等安全实践。该指南帮助开发者在FastMCP中构
2025-06-30 15:55:32
1271
3
原创 快速手搓一个MCP服务指南(四):FastMCP的高级功能-从上下文管理到 LLM 交互的全流程指南
FastMCP框架通过五大核心模块实现高效工具开发:1) Context机制作为神经中枢,提供日志、资源访问等统一接口;2) 用户引导功能支持动态交互式参数收集;3) 分级日志系统确保操作可观测性;4) 多模式进度追踪优化长任务体验;5) LLM集成能力。该框架采用依赖注入和函数调用两种方式访问Context,支持从简单到复杂的多轮交互流程,并通过百分比/绝对/不确定三种进度模式适应不同场景需求,为开发者提供了一套完整的工具开发技术栈。
2025-06-30 14:25:00
907
原创 拆解AI大模型应用架构:从数据到业务落地的完整路径
本文系统拆解了AI大模型应用的完整架构路径。首先通过多模态数据接入层整合各类业务数据;其次在预处理层完成数据清洗与标准化;核心部分是知识与模型中台,通过领域本体和知识库增强行业认知,结合大模型推理与微调实现业务适配;最终在业务应用层实现智能客服、报告生成等场景落地。文章强调架构设计需包含持续监控与优化能力,确保系统稳定性和进化能力。这套分层架构为AI大模型从实验室走向业务实践提供了清晰的实施框架。
2025-06-30 09:31:23
1061
原创 谷歌开源 AI 编程王炸!Gemini CLI:每日千次请求,硬刚 Claude Code
近日,谷歌正式推出开源 AI 智能体 Gemini CLI,将旗舰模型 Gemini 2.5 Pro 的能力直接引入终端命令行界面,能够提供轻量化的 Gemini 访问通道!
2025-06-26 16:22:57
572
原创 快速手搓一个MCP服务指南(三):FastMCP的核心组件-构建MCP服务的关键技术实现
FastMCP 提供了一套标准化工具系统,将 Python 函数转化为 LLM 可调用的能力单元。通过类型注解实现自动参数校验(支持基础类型、集合类型及复杂模型),并支持异步IO操作。系统包含以下核心功能:1)装饰器定义工具元数据(名称、标签、描述等);2)参数约束与校验(通过Pydantic Field);3)返回值自动转换(支持文本、JSON及二进制数据);4)上下文机制(日志记录、进度反馈和LLM二次调用);5)安全控制(错误屏蔽与专用异常)。该框架以类型
2025-06-24 20:34:12
1098
原创 快速手搓一个MCP服务指南(二):FastMCP Servers概述
FastMCP 服务器是构建 MCP(工具调用协议)应用的核心组件,负责管理工具、资源、提示等组件,并处理与客户端的通信。其本质是一个容器,将功能组件抽象为可被 LLM 调用的接口,同时屏蔽底层通信细节。
2025-06-24 11:02:15
873
5.图像分类算法原理与实战.pptx
2023-10-02
4.深度学习网络模型.pptx
2023-10-02
3.深度学习算法基础.pptx
2023-10-02
2.深度学习开发框架.pptx
2023-10-02
计算机视觉-飞桨深度学习实战-学习ppt-1
2023-10-02
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人