自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(619)
  • 收藏
  • 关注

原创 7种大模型最流行的强化学习算法总结:从零基础到精通,一篇就够了!

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。【保证100%免费】🆓优快云粉丝独家福利这份完整版的 AI 大模型学习资料已经上传优快云,朋友们如果需要可以扫描下方二维码点击下方优快云官方认证链接免费领取【保证100%免费】

2025-12-25 11:35:12 479

原创 Multi-Agent全面爆发!一文详解多智能体核心架构及LangGraph

本文详细介绍了LangGraph多智能体集成框架,包括其核心概念(图、节点、边、状态等)、多智能体架构(Supervisor、Swarm等)以及高级功能如状态持久化、时间旅行和人机协作。LangGraph通过有向图模型重构智能体工作流,支持条件分支、循环和并行执行,能将复杂任务分解为子任务。文章还涵盖了Java版本实现,为开发者提供了从零基础到精通的完整学习路径。👉目录1 LangGraph概述2 LangGraph核心3 Multi-Agent架构。

2025-12-24 10:29:34 553

原创 AI大模型RAG检索优化全攻略:零基础入门到精通!

面试时可以这样回答:向量化:使用统一Embedding模型;混合检索:结合Dense与BM25,兼顾语义与精确;精排模型:用Cross-Encoder做Rerank;缓存与元数据过滤:提升速度与结果可靠性。我在项目中通过Hybrid Search + Reranker的方式,将检索准确率提升了20%以上。这样的答法逻辑完整,又有实操感,面试官很难不满意。检索优化看似是算法问题,但本质上是工程平衡——速度、准确率、成本的取舍。最好的系统从来不是“最复杂”的,而是在正确的地方做取舍。

2025-12-24 10:24:15 945

原创 RAG知识库构建实战指南:从文档处理到精准检索,小白到精通全攻略!

RAG知识库构建中,文档处理是根基,需根据业务场景灵活处理。知识库本质是优化检索而非简单管理。结构化数据应提取元数据便于精准检索,非结构化数据需分段并提取核心内容。文档处理前需清洗过滤无用信息,避免脏数据影响质量。最终处理方式应基于实际业务需求调整,而非机械套用模板。文档处理在不同的业务场景中需要选择不同的处理方式,而不送一概而论。关于RAG的知识库构建或者说文档处理,很多会受限于各种条条框框,比如说应该这样处理你的文档,应该那样建立你的知识库;

2025-12-20 10:47:25 535

原创 什么时候该用RAG?什么时候不该用?

Agentic AI 的核心是一个自主决策循环。它不是简单的"输入-输出"模式,而是持续运行的四步循环:Agentic AI 工作循环感知环境Perceive推理决策Reason执行动作Act观察反馈Observe最小化人工干预的自主决策循环感知环境 (Perceive):Agent 观察当前状态——可能是用户的请求、系统的状态、或者外部 API 的返回结果推理决策 (Reason):基于观察到的信息,Agent 调用 LLM 进行推理,决定下一步该做什么执行动作 (Act)

2025-12-20 10:32:39 958

原创 深度研究:我们如何构建水平最先进Agent

简化编排逻辑,增强自主性。密切关注哪些模型和工具正在被优化,并利用它们正在涌现的功能。重点关注上下文工程(下一节将详细介绍)。

2025-12-19 11:54:37 910

原创 本地实现RAG知识库其实很简单(实践)从零基础入门到实战,收藏这一篇就够了!

文章详细介绍RAG(检索增强生成)知识库的本地开发实现,解决大模型在垂直领域知识不足的问题。通过代码示例展示知识库分片、向量化、存储及检索召回的全流程,相比模型微调,RAG具有成本低、耦合度低、知识可灵活更新的优势,适合需要频繁更新知识的场景。在很多大模型平台上其实都已经内置了RAG知识库的功能,通常都是上传文档之后,做好分段切分,然后在调用大模型的时候就会关联上知识库进行输出。本篇就尝试本地开发一个RAG知识库,来学习一下具体的实现逻辑。通常我们与大模型交互时,大模型只能回复它所学习到的知识。

2025-12-19 11:45:28 711

原创 基于Agent驱动的工作流开发模式探索,从零基础到精通!

本文介绍了一种基于Agent驱动的工作流开发模式,它和传统工作流开发模式有着非常大的范式差异。它不仅简化了数据传递、参数构造、流程编排等一系列问题,而且还为不同系统之间的融合保留了非常大的想象空间。更重要的,我认为是它既结合了AI时代的便利性,又不完全脱离现有系统的代码实现,找到了一种并行两种范式的可能性。能够做到这种包容性的根源,在于Agent+MCP这对双胞胎组合,它们可以让一个系统的可扩展性变得极为广阔。

2025-12-18 14:00:52 886

原创 全面超越Transformer!谷歌提出全新范式嵌套学习

基于更新频率,定义了一个排序关系(≻)来组织机器学习模型中的各个组件:若组件 A 的更新频率高于 B,或两者频率相同但B 的计算依赖于 A,则称 A ≻ B;若两者互不依赖且频率相同,则视为同频独立。据此,所有组件被划分为多个有序层级——同一层级内组件更新频率一致,层级越高,更新越慢。重要的是,每个组件都对应一个独立的优化问题和专属的上下文(或梯度)流,既适用于参数化模块(如权重、动量),也兼容非参数化结构(如注意力机制),从而。

2025-12-17 15:06:13 556

原创 非专业也能看懂的AI大模型工作原理!从零基础入门到精通,小白/程序员必备!

本文系统介绍AI大语言模型工作流程,从文本输入的分词与嵌入、Transformer架构与自注意力机制、输出处理,到位置编码和长文本外推等核心技术。结合DeepSeek V3案例,详细解释模型如何将用户输入转换为矩阵,通过自注意力理解上下文,最终输出人类可读内容。同时提供工程实践指导,包括上下文优化、耗时控制、多Agent协同等策略,助读者更好应用大模型技术。👉目录1 输入:从用户提问到模型"看得懂"的矩阵2 Transformer架构与自注意力机制:模型如何“理解”上下文。

2025-12-17 10:49:38 1570

原创 大模型MCP协议教程(超详细)从零基础入门到实战,一篇搞定!

A:MCP(Model Context Protocol,模型上下文协议)是规范应用程序向大语言模型提供上下文的。

2025-12-11 11:25:22 854

原创 一天火爆全网!多Agent舆情分析系统!

微舆” 是一个从0实现的创新型 多智能体 舆情分析系统,帮助大家破除信息茧房,还原舆情原貌,预测未来走向,辅助决策。用户只需像聊天一样提出分析需求,智能体开始全自动分析 国内外30+主流社媒 与 数百万条大众评论。AI驱动的全域监控:AI爬虫集群7x24小时不间断作业,全面覆盖微博、小红书、抖音、快手等10+国内外关键社媒。不仅实时捕获热点内容,更能下钻至海量用户评论,让您听到最真实、最广泛的大众声音。超越LLM的复合分析引擎:我们不仅依赖设计的5类专业Agent,更融合了微调模型、统计模型等中间件。

2025-12-10 11:54:52 400

原创 一文详解如何转型AI产品经理

文章详述了AI产品经理的转型路径,涵盖四大岗位分类、完整的AI能力模型构建方法及学习计划,强调理论与实践结合的重要性,帮助读者把握AI时代机遇,从零开始系统学习大模型技术,实现职业转型与提升。最近,跟周边的朋友聊天,包括跟关注我公众号的朋友交流,有做产品的,有做数据工程师的,也有做测试的,发现他们有一个共同的特点,就是想转型做AI产品。01 为什么要转型AI产品大家都知道,当前的AI已经在模拟某些人类认知功能方面取得了显著进展,甚至在很多特定任务上超越了人类。

2025-12-08 21:17:22 604

原创 一文看懂AI大模型的并行训练方式(DP、PP、TP、EP)

本文详细介绍了AI大模型训练中的五种主要并行计算方式:数据并行(DP)、流水线并行(PP)、张量并行(TP)、专家并行(EP)及其混合并行策略。分析了各方式的工作原理、优缺点及适用场景,如数据并行适合大规模数据训练,张量并行处理单样本大矩阵计算。同时介绍了ZeRO技术如何减少内存占用,以及实际应用中如何根据模型规模和硬件条件选择合适的并行策略,以提升训练效率。大家都知道,AI计算(尤其是模型训练和推理),主要以并行计算为主。

2025-12-08 20:49:33 810

原创 字节大模型面试:“LLM as a Judge“

总结来说,目前 LLM as a Judge 很省钱,但是依然存在一些问题。位置偏差:裁判可能会根据输出在提示中的位置(例如,成对提示中的第一个响应)。冗长偏见:法官可能会根据输出的长度给它们分配更好的分数(即,较长的回答获得较高的分数)。自我增强偏见:法官倾向于倾向于自己产生的反应(例如,GPT-4给自己的输出分配高分)。前面论文已经提了很多方法来改善 Bias,但是仍旧很难消除,这也凸显出人工评估的价值。

2025-12-06 15:28:35 886

原创 大模型上下文工程全攻略:从零基础入门到精通,一篇搞定AI系统架构!

*上下文工程(Context Engineering)**是系统性地构建和优化提供给大型语言模型的所有输入信息的过程,以显著提高其输出的准确性、可靠性和相关性。它存在的价值在于:通过编排(Orchestrated Architecture),在正确的时间、以正确的顺序、提供恰到好处的信息给模型。特性上下文工程(Context Engineering)提示工程(Prompt Engineering)关注层面系统架构和数据流(System Design & Architecture)

2025-12-05 11:56:08 891

原创 【教程】DeepSeek-OCR本地部署(上):CUDA升级+vLLM0.11.2配置,收藏这一篇就够了!

文章详细介绍了如何升级CUDA至12.9.1版本及vLLM至0.11.2以支持DeepSeek-OCR部署。内容包括CUDA下载安装步骤、解决nvidia-uvm和nvidia-drm等常见问题的方法,以及使用Docker镜像进行vLLM升级的流程。作者提到后续将详细介绍基于升级后环境的DeepSeek-OCR部署及API调用,为读者提供完整的大模型OCR应用解决方案。

2025-12-05 11:40:54 955

原创 大模型的价值到底体现在哪方面?零基础到精通,一篇全搞定!

大模型通过自然语言对话降低使用门槛,提升跨领域合作效率,使专业工作变得简单。类似工业革命的蒸汽机,大模型将取代部分脑力工作,同时创造新岗位,提高社会效率。当前处于大模型发展初期,抓住这一机遇至关重要,否则可能被时代抛弃。我们应积极理解并应用大模型,把握其带来的机会。尽早认识到大模型的价值,你才能在时代的洪流下稳坐钓鱼台。目前大模型的发展还处于起步阶段,甚至很多人都没搞明白大模型到底是什么,也不知道大模型到底有什么用,所以很难理解大模型的价值在哪里。

2025-12-04 11:37:54 559

原创 _MCP与大模型的真实落地,从零基础到精通API调用,一篇搞定大模型与数据库交互!

本文详细介绍了如何使用MCP框架将API接口封装为大模型可调用的函数,实现大模型对结构化数据库的直接查询。通过Weaviate向量数据库实现工具调用结果的智能缓存,提高响应效率。文章提供了基于ruoyi-ai的完整Java代码实现,包括服务端工具接口暴露、客户端调用逻辑及缓存机制,并展示了效果演示。该方案解决了数据实时性、一致性问题,为大模型与结构化数据协同提供了安全可控的解决方案。最初,我们借助第三方框架OpenWebUI,并通过 MCPO 以严格的 stdio 格式集成了若干常用 MCP 工具。

2025-12-02 13:58:46 748

原创 从函数到神经网络:AI大模型入门到精通(超详细教程)程序员必学,一篇搞定所有知识点!

DeepSeek最近火出圈了,连我姥姥都知道了。既不想一直看那些几分钟的快餐视频,因为不论看多少,很多问题还是搞不明白但又不想花太多时间从头开始学,因为整个AI的知识体系实在是太庞大了所以,我决定做一个小系列,把DeepSeek以及背后的机器学习、深度学习知识从头讲一遍。做到既快又慢,既深入又肤浅,既有趣又严肃。现在,请你清空大脑,忘掉所有曾经熟悉或不熟悉的概念。在你脑海中只留一个词——函数。这就是我们这趟AI之旅的起点。函数是起点→ 相信函数可以描述世界符号主义的困境→ 很多问题找不到精确函数。

2025-12-02 11:50:20 576

原创 AI大模型Agent开发教程:从零基础入门到精通,这一篇就够了!

本文介绍了大模型Agent开发的关键概念与技术。首先通过提示词设计实现大模型与程序的格式化集成;其次介绍了工作流、模型上下文协议(MCP)如何扩展大模型能力;然后对比了Dify、Coze等工作流平台;最后阐述了Agent相比工作流的自主性特点,包含Profile、Memory、Planning、Action等核心组件,能主动思考并调用工具解决问题。文章为后续RAG技术介绍奠定基础。上一篇文章中提到我的目的是开发一个可以完成专业知识问答的智能助手。

2025-12-01 11:40:14 1480

原创 手把手教你把Gemini3生成的项目简单部署上线

文章详细介绍了如何使用Gemini 3大模型生成代码并将其部署为网站或小程序的全过程。内容包括:1) 在Gemini官网或AI Studio中使用Canvas/B功能生成代码;2) 纯前端应用的部署流程,通过Cloudflare Pages或国内云服务器实现;3) 微信小程序的创建与部署方法。文章强调AI大大缩短了从想法到产品的开发周期,为非技术背景创作者提供了强大支持,适合有一定基础但缺乏部署经验的新手学习。这两天肝了两天 gemini3,各种奇思怪想触手可得,大大缩短了喜欢胡思乱想的人试错的机会。

2025-11-29 12:02:29 2074

原创 Agent智能体应用模式,从入门到精通,单Agent到多智能体架构全覆盖!

文章系统介绍了AI大模型应用开发的多种架构模式,包括单Agent系统的核心能力(规划、工具使用、记忆)及反思机制;工作流模式(静态顺序、路由、并行);多智能体系统的架构与协作方式;以及低代码与高代码开发方式的演进与应用。重点分析了各模式的优缺点、适用场景和典型技术,为开发者提供了构建AI应用的全面指导。一、单Agent整个应用由模型作为大脑来驱动和决策,任何问题,我们预期模型都能够正确的推理、选择合适的工具、检索到正确的上下文,最终生成符合预期的答案。

2025-11-29 11:22:54 1369

原创 RAG技术详解(必收藏):零基础入门到精通,解决两大核心问题!

文章主要讲述了RAG技术如何解决大模型的幻觉生成和知识边界模糊问题。通过将知识外置于动态更新的向量数据库,模型转变为动态推理代理,将幻觉率降低96%。RAG实现知识存储与推理生成分离,知识更新无需重新训练模型,检索失败时能自动拒答。企业级RAG通过混合检索和条件化生成机制,确保准确回答同时对边界外问题坚决拒答,构建可信赖的AI系统。作为AI从业者,我将分享RAG如何通过架构重构解决大模型的两大顽疾——幻觉生成与知识边界模糊,帮你构建可信赖的企业级AI系统,让模型在不知道时主动拒答。

2025-11-28 13:53:33 1022

原创 Ollama本地大模型完全指南(保姆级教程)从零基础到项目实战,一篇搞定!建议收藏!

本文详细介绍如何使用Ollama工具在本地部署和调用大模型,包括命令行、HTTP API和SDK三种调用方式。通过测试多个本地大模型在JSON输出方面的表现,发现deepseek-r1:14b效果最佳。文章指出本地大模型能力受参数量限制,有显卡可运行30B左右模型,无显卡则只能运行8B左右,但即使小参数量模型也能实现不错的业务功能,为本地部署提供了实用参考。上一篇文章《LLM:使用API访问在线大模型》中介绍了通过API访问大模型的方法,这种方法可以调用当今最强大的大语言模型。

2025-11-28 11:53:25 911

原创 RAG已经过时了?试试CAG,缓存增强生成技术实战大揭秘!

用户提问系统去知识库检索相关文档把检索结果和问题一起给AIAI基于检索内容生成答案听起来很美好,但问题在于:每次都要检索。以前的AI是"现学现卖",每次都要临时抱佛脚。而CAG让AI有了真正的"记忆力",能把核心知识牢牢记住,需要的时候随时调取。这不是简单的技术升级,而是让AI从"查询工具"向"智能助手"的本质跃迁。想象一下:未来你的AI助手不仅知道去哪儿查信息,更重要的是,它能记住你的习惯、你的偏好、你们之间的每一次对话……那时候,它才真正成为了你的"数字分身"。

2025-11-27 13:58:03 939

原创 为了不再手搓提示词,我给自己雇了个提示词领航员

大家好呀,我最近在和AI协作上有一些新的思考,正好来借“提示词领航员”这个提示词和大家分享一下~几周前和大家分享了我最常用的三个提示词:思维照面、PRD文档助手、提示词生成器。这三个提示词只有PRD文档助手有过几次大的版本升级,在过去的1年和AI编程使用方式一起在陆续迭代,才达到今天一个还蛮不错的使用效果。我就在想,作为一个AI产品经理,日常用的最多是提示词生成器是不是也可以升级一下?

2025-11-27 11:17:47 784

原创 谷歌Gemini 3:这代“最强大脑”,到底强在哪?

Gemini 3 到底强在哪?总结成一句话:不是更聪明,而是更能用。能干事:自动规划、多步骤执行,把复杂任务“一句话解决”。能触达:发布当天就进入搜索、Gmail、Android,覆盖数十亿用户。能闭环:算力、数据、产品全栈整合,形成别人无法复制的生态。这一次,我们终于看到 AI 从“对话框”走向“生活入口”:它不再等你打开,而是在你每天的工作流里随时待命。阿里巴巴也在同步推进类似路径:千问已接入夸克等搜索产品。方向越来越清晰:

2025-11-25 15:36:20 1011

原创 全网吹爆的Gemini 3,到底是程序员的“杀手”还是“大神“?

本文通过"造房子"理论分析AI编程能力:Gemini 3在简单任务中表现出色,但在复杂工程中力不从心。AI编程是工具革命而非替代革命,未来将是"懂AI的建筑师"与"AI施工队"的合作模式。程序员需学会指挥、检查和修正AI,而非被取代。Google Gemini 3 横空出世,带着 AI Studio、Antigravity 等一众“黑科技”工具席卷而来。自媒体高呼“变天了”,程序员却在“冷笑”。普通人看热闹,内行人看门道。今天我们就用最通俗易懂的方式,聊聊现在的 AI 写代码到底是个什么水平。

2025-11-25 15:14:26 764

原创 多模态大模型VLM的架构及其部件Clip和ViT

vision encoder不同,Qwen2.5 - VL用了大量的“图片-文本”进行训练,并且对ViT的结构也做了一些重新设计。****下面的表格清晰地列出了通义VLM的3个部件和各自的规模:OpenAI的VLM模型GPT-4v【3】发布得比LLaVA更早,在2023年3月,就开始应用。他们还做了一个项目:定位于盲人用户,为智能手机拍摄的照片提供描述。但我没有找到他们的实现架构,只是在。

2025-11-22 11:59:12 1293

原创 大模型构建小众专业知识图谱实战教程:从零基础到精通,小白程序员也能轻松上手!

文章详细介绍了利用大模型构建小众专业知识图谱的方法,以威胁情报领域为例。首先分析了小众知识图谱面临的三大痛点:数据标注困难、实体复杂、关键信息易遗漏。然后提出三步解决方案:利用大模型少样本学习能力低成本准备数据,通过轻量级微调让小模型适配专业任务,最后整合信息并去冗余构建高质量知识图谱,有效解决了小众专业领域知识图谱构建难题。大模型如何 “玩转” 小众专业知识图谱?从威胁情报领域看技术突破。

2025-11-22 11:31:33 811

原创 LangChain(超详细)从零入门到精通,一篇搞定模型切换与开发,建议收藏!

本文介绍LangChain框架如何通过统一模型封装机制帮助开发者灵活管理不同大语言模型。详细讲解了LLM模型包装器和Chat模型包装器的分类、区别及使用场景,展示了丰富的模型生态系统,并提供了调用OpenAI、Ollama等模型的代码示例,帮助开发者快速上手大模型应用开发。随着 AI 技术的飞速发展,各大科技公司都推出了自己的大语言模型,从 OpenAI 的 GPT 系列到 Google 的 Gemini ,从国内的智谱 GLM 到阿里的通义千问,模型生态百花齐放。

2025-11-21 15:03:40 1014

原创 Dify 自建部署完全指南:从上手到放弃到真香

测试环境用 HTTP 没问题,但生产环境必须上 HTTPS。• WebSocket 连不上• 浏览器警告不安全• SSE 流式输出各种问题# SSL 优化 ssl_protocols TLSv1.2 TLSv1.3;aNULL:!MD5;关于Let’s Encrypt 免费证书的部署,可参考我的上一篇踩坑记。如果你问我,花两周时间部署 Dify 值不值?值不值看情况。• 完全掌控数据• 灵活接入各种模型• 深度定制功能• 无限制的 API 调用• 可长期演进的平台。

2025-11-21 11:38:59 1076

原创 大模型落地实战:从零基础到精通,业务比技术更重要,中小企业AI应用全攻略,收藏学习必备!

现场在老板电脑上看的时候注意到,这家工厂最早从 12 年就开始做相关的集成设备业务。目前十来个年头里积累了 7000 多份的报价单,而且文件命名相对来说没有那么的规范或者统一。不过哪怕文件命名相对规范,单靠个人记忆能记住的案例也毕竟有限。进一步的,依赖文件名搜索加载很慢不说,由于文件名称是个简称,并不能很完整的概括报价的主要内容,这也导致了检索的参考报价单不够准确,进而导致修改的工作量很大。

2025-11-19 11:40:52 954

原创 AI大模型Agent全栈教程:零基础入门到精通,一篇搞定所有知识点,建议马上收藏!

本文全面整理了Agent领域的前沿论文(131篇)和落地案例(321个),系统介绍单智能体与多智能体的核心技术形态,深入探讨大模型智能体与Graph+AI Agents的技术融合创新。内容覆盖从入门到研究应用的完整学习路径,为Agent领域学习者提供全方位指导资源。当前正是Agent发展的黄金时期,对于想要在该领域发论文的同学来说,掌握其高效的学习路径、深入了解Agent的核心系统形态/技术融合创新至关重要。

2025-11-19 11:31:09 579

原创 AI大模型与智能体工程架构全攻略:从零基础到落地实战,一篇就够了!

AI智能体落地90%工作是工程架构,仅10%依赖大模型本身。文章详细拆解了从算力、基础设施到前端层的14层架构,强调容器编排、数据清洗、模型路由、工具集成等工程细节才是关键。企业需全链路打磨,而非单点突破,才能让AI智能体真正落地并发挥价值。大模型是点睛之笔,但工程架构决定系统能否飞起来。越来越多的企业正在尝试把 AI 智能体真正落地,我们会发现一个有趣的规律:90% 的工作其实是工程架构设计,只有 10% 才是大模型本身的发挥。

2025-11-18 14:24:53 248

原创 《智能体设计模式》从零基础入门到精通,看这一篇就够了!

文章详细介绍了AI智能体设计模式中的规划模式,这是让AI"先思考再行动"的关键机制。通过目标理解、任务分解、步骤排序和执行调整四个阶段,AI能分解复杂任务、保持方向一致性并进行动态优化。文章还探讨了LangChain实现、思维树、Google ADK规划引擎等内容,强调规划模式是智能体从"指令执行"迈向"理性决策"的转折点,是实现真正AI智能的基础。“智能不只是做事的能力,更是知道先做什么、后做什么。” —— Antonio Gulli,《智能体设计模式》一、回顾:从工具到计划。

2025-11-18 14:07:05 2085

原创 AI大模型项目实战(超详细)从零构建LangGraph智能助手,代码开源,收藏这篇就够了!

本文介绍如何使用LangGraph作为智能体大脑,结合RAG知识库和MCP Server工具,构建AI赋能的Jira助手。该系统能理解自然语言指令,自动创建和管理Jira任务,整合分散知识资源,实现智能问答和自动化工单处理。文章详细拆解了核心架构、代码实现和应用场景,提供完整AI Agent开发指南和开源项目。在日常开发中,Jira是我们绕不开的项目管理工具。但不知道你有没有这样的痛点:操作繁琐: 创建一个任务,要填一堆字段,点N次下拉框。

2025-11-17 16:05:11 671

原创 大模型“胡说八道”?给它装上“外脑”!RAG知识库搭建4步全流程

大模型存在知识过时和缺乏领域专业知识的问题,RAG技术通过构建外部知识库作为"外脑"可有效解决。构建知识库需四步:准备原始数据、清洗数据、向量化存储、定期更新。将RAG集成到Agent开发平台如Coze或Dify中,可提升大模型在特定场景的应用效果。尽管RAG技术有局限性,但仍是当前较优的解决方案,但要打造真正能干活的智能体还需更多工程工作。大模型不是万能的,它会出现幻觉,胡言乱语地回答问题,它还会撒谎,说一些与事实不符的内容。这并不是大模型有意为之,而是它的“出厂设置”里就不可避免的有这些问题。

2025-11-17 15:35:00 1200

原创 面试官狂问的28个RAG问题全解析:从基础到架构优化

RAG,全称 Retrieval-Augmented Generation,是一种结合“外部知识检索”和“大语言模型生成”的混合架构。它先从知识库中检索相关文档,再让模型基于这些文档生成回答。

2025-11-14 11:58:47 625

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除