自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(1007)
  • 收藏
  • 关注

原创 【值得收藏】从零开始构建RAG评估体系:让知识库建设从“凭感觉“到“可度量“

文章介绍了一套RAG知识库评估框架,通过三项核心指标(检索召回率、答案正确度和基于知识库程度)实现知识库建设的量化评估。该框架解决了传统评估仅凭感觉的问题,提供了可量化、可复现、可对比的评估方法,并分享了系统实现和初步评估结果,使知识库建设从主观判断转变为可度量的工程能力。

2025-11-24 19:52:20 394

原创 收藏必学!知识图谱:AI的“外挂大脑“,让机器像人一样思考

知识图谱是一种用节点和边组织数据的结构,让机器能像人一样理解实体和关系。它比传统数据库更擅长处理复杂关系查询,具有语义理解、推理能力和知识融合三大超能力。知识图谱在社交媒体推荐、生物医药研发等领域有广泛应用,可与大语言模型结合解决"幻觉"问题。未来将向多模态、实时动态和联邦知识图谱方向发展,成为AI系统的"记忆宫殿"。

2025-11-24 19:42:50 246

原创 上下文工程:让大模型真正“懂事“的系统方法(小白必学,建议收藏)

上下文工程是让AI能够"听懂"、"记住"、"理解"、"回应"的系统性方法,而非简单的提示词技巧。它由对话历史、领域知识、用户意图理解和场景参数调优四部分构成。通过上下文工程,AI能结合前因后果做出智能判断,从简单的问答机器人转变为能记住任务背景、理解用户意图、推理场景需求的智能体,是AI从"工具"升级为"助手"的关键桥梁。

2025-11-24 19:34:08 450

原创 收藏必备:LLM智能体进阶之路 - 环境扩展与强化学习实战指南

本文提出大模型智能体需通过环境交互与强化学习提升能力,引入"生成-执行-反馈(GEF)循环"范式。系统回顾任务生成、执行与反馈三阶段的扩展方法,分析复杂度、动态性等关键维度,为构建更智能的智能体系统提供指导。

2025-11-24 19:11:57 371

原创 AI产品经理转型路径全解析:年薪35-50万+,40%薪资涨幅,收藏这份攻略小白也能入行

AI产品经理是兼具业务落地、产品设计和技术理解的复合型高薪岗位,年薪普遍35-50万元。转型面临知识体系缺失、落地经验缺乏和认知焦虑三大困局。正确转型路径包括系统评估个人实力、制定个性化学习计划,分阶段建立产品认知、业务理解和技术理解,积累AI项目落地经验。成功案例显示,技术背景和产品思维相结合,可帮助实现40%以上的薪资涨幅。

2025-11-24 18:36:44 287

原创 【强烈推荐收藏】深入理解多头自注意力机制:从面试高频考点到工业级优化实战

本文全方位解析了多头自注意力机制,从理论基础、技术原理到工业级实战案例。通过金融客服系统意图识别的案例,展示了多头注意力如何提升模型准确率16个百分点,并优化性能。文章详细阐述了多头注意力的四大核心价值:特征分工、高效并行计算、灵活可解释性及可扩展性,同时提供了头数选择、长文本处理等实用建议,帮助读者从理论到实践全面掌握这一关键技术。

2025-11-24 11:27:56 390

原创 收藏!零基础如何构建大模型Agent项目经验,轻松拿下3万月薪!

文章分享了从零构建大模型真实项目经验的三步法:从API调用进阶到理解模型工作流程和边界;细化真实场景,准备优化和解决问题的说辞,量化评估模型准确性;围绕模型上线和落地,补全部署、监控和成本优化经验。强调单纯实现功能不足以证明真实项目经验,必须围绕业务优化和技术细节展开,才能在面试中脱颖而出。

2025-11-24 10:29:37 597

原创 【必藏】大模型面试题库全解析:从Transformer到实战应用,助你轻松拿下大模型offer

本文全面解析了大模型面试必备知识,涵盖Transformer架构与位置编码、大模型应用核心技术(Prompt工程、RAG、Agent等)、性能优化方法(量化、蒸馏、剪枝)、训练技巧及评价指标。同时详细介绍了微调策略、decoder-only架构优势、数据并行与模型并行等关键技术,帮助求职者系统掌握大模型知识,提升面试竞争力,助力成功拿下高薪offer。

2025-11-22 19:47:32 786

原创 【必收藏】大模型Prompt工程完全指南:从小白到专家的进阶之路

本文详细介绍了大模型Prompt工程的核心内容,包括Prompt的定义与基本框架、高效Prompt的两大核心原则(明确具体指令、给予充足思考时间)、15种Prompt技术方法(如零样本提示、少样本提示、思维链等)以及模型局限性及应对策略。通过理论结合实践案例,系统讲解了如何优化Prompt以提升大模型应用效果,是程序员和AI爱好者深入学习大模型应用的重要参考资料。

2025-11-22 19:19:21 536

原创 收藏必备!让大模型乖乖听话:六步构建完美Prompt框架,小白也能快速上手

本文分享了一套结构化提示词写作框架,包括角色/任务、核心原则、上下文处理、CoT思维链、输出规范和Few-Shot六大模块。通过明确定义模型身份和任务约束,设置核心原则,优化上下文组织,引导模型按步骤思考,规范输出格式,并提供示例,可显著提升大模型响应准确性和一致性。作者强调不同模型场景虽有差异,但整体框架相通,借助模型自身辅助生成和优化提示词也是有效方法。

2025-11-22 14:58:14 730

原创 收藏学习!揭秘大语言模型Transformer:从输入到输出的完整数据流

大语言模型本质上是预测工具,其核心任务是给定前文预测下一个token的概率分布。基于Transformer架构,模型通过将文本切分为token,转换为向量,经多层attention和MLP处理,最终输出概率分布并采样。这种结构是通过梯度下降从"预测下一个token"目标中反推导出的,所有语言能力都是模型在最小化预测误差过程中自动习得,而非被明确教导。

2025-11-22 14:34:42 975

原创 【干货收藏】从“录音-识别-比对“到智能测试:LLM+RAG+Agent如何革新语音测试工作

文章介绍了LLM、RAG和Agent三种技术在语音测试中的协同应用。LLM作为"思考者"理解语义,RAG作为"知识层"提供实时数据,Agent作为"执行者"自主决策与执行。这种架构使语音测试从固定规则的"机械执行"进化为具备理解、推理和自我调整能力的"智能测试",解决了传统测试方法在面对复杂场景时的局限性,实现了测试工作的智能化和高效化。

2025-11-22 13:49:41 984

原创 【AI大模型】让你的Agent快如闪电:并行化模式完全指南(值得收藏)

文章介绍Agent并行化模式,通过将串行工作流拆分为独立子任务、并发执行、汇总结果,解决API调用慢、响应延迟等问题。详细讲解三类并行策略(异步I/O、多Agent、多模型),提供LangChain和Google ADK实现代码,强调工程化注意事项。这种模式能显著提升Agent性能,让大模型应用告别"排队慢半拍",是优化AI工作流的关键设计模式。

2025-11-22 11:51:51 503

原创 【建议收藏】超详细教程:从零开始在Coze平台搭建你的第一个AI智能体

本文是面向初学者的AI智能体开发教程,以字节跳动Coze平台为例,详细介绍从零开始搭建新闻检索与总结智能体的完整流程。文章解释了Agent基本概念和Coze平台功能,通过工作流编排演示如何创建关键词检索网络新闻并生成总结的智能体,涵盖节点设置、变量配置到测试发布全过程,为读者提供清晰的智能体开发思路和实操指南,适合入门学习。

2025-11-22 11:31:18 941

原创 【强烈收藏】基于大语言模型的多智能体量化交易框架:QuantAgents实战指南与代码解析

本文详细介绍了QuantAgents多智能体框架在量化交易中的应用,该框架基于大语言模型,能自动进化因子并生成交易指令。文章探讨了金融投资中数据的重要性,指出收盘价是最基础数据,其他数据为补充。同时介绍了从MongoDB转向本地存储的数据处理方案,以及以自然语言驱动策略开发的创新方法。最后分享了AI量化实验室提供的年化30%+策略代码和数据资源,为量化交易者提供实用工具。

2025-11-21 19:53:47 952

原创 【收藏级教程】从零开始构建Agent:AI智能体实战指南,带你入门大模型应用开发

本文详细介绍了AI智能体的概念、特点与优势,区别于传统聊天机器人,它能自主决策、执行任务。文章解析了AI智能体的技术组成(大语言模型、记忆系统、规划能力、工具调用),并通过LangChain框架提供实战示例,帮助读者搭建自己的AI助手。最后展望了AI智能体的未来发展方向,并提供了学习路径,适合小白和程序员入门大模型应用开发。

2025-11-21 19:35:07 620

原创 大模型开发陷阱:为什么你的KS/AUC指标看起来很美?收藏这篇幸存者偏差解析

文章揭示了模型开发中常见的"选择性偏差"问题:开发样本往往是被老模型筛选过的"幸存者",导致新模型评估指标虚高。新模型上线后,面对老模型拒绝过的客群时,由于缺乏这部分客群的真实表现数据,可能导致实际坏账率远超预期。模型评估需基于对齐的样本,搭建"公平的角斗场"才能真实反映模型性能。

2025-11-21 19:14:12 691

原创 企业AI大模型实战宝典:从政策到技术,从挑战到解决方案(2025版)附PDF可下载!!

该报告系统分析中国企业2025年AI大模型落地全景,强调政策从鼓励转向强制执行,面临技术缺陷、数据质量、应用不对齐等挑战。成功关键在于高层支持、小步快跑、构建可信AI系统、建设知识库及人机协同。未来趋势是轻量化、垂直化、可信AI及软硬一体产品方案。可信AI将成为核心竞争力终极壁垒,AI知识库是数字化转型"操作系统",应构建开源与私有化部署的混合AI生态。

2025-11-21 11:58:15 868

原创 程序员必看!全模态大模型时代来临,阿里、英伟达、美团等巨头开源布局,收藏学习!

文章阐述了AI从单模态大语言模型到全模态大模型的演进历程。2022年ChatGPT开启大语言模型时代,但单模态模型已进入瓶颈期。2025年全模态大模型开始出现,阿里巴巴(Qwen2.5-Omni、Qwen3-Omni)、英伟达(OmniVinci)、蚂蚁集团(Ming系列)和美团(LongCat-Flash-Omni)等公司纷纷开源全模态大模型,参数规模从3B到560B不等,标志着AI向处理文本、图像、音频和视频等多模态信息的全能方向迈进。

2025-11-21 11:43:18 772

原创 大模型数据宝典:一文读懂LLM训练数据格式与类型(建议收藏)

本文详细解析了大语言模型(LLM)训练所需的数据类型与格式,涵盖标准格式、对话格式和function call数据格式等。重点介绍了TRL和LlamaFactory两大训练框架对不同数据类型的要求,包括Language modeling、Preference、Prompt-completion等六种数据类型,并提供了具体示例,帮助开发者根据不同训练任务准备合适的数据集。

2025-11-21 11:13:17 652

原创 【必收藏】Agent+Coding:京东云AI开发新范式,构建智能代码闭环生态,让开发更自动化智能化

京东云提出"Agent+Coding"AI开发新范式,通过JoyAgent 3.0和JoyCode 2.0双平台协同,形成智能体驱动代码生成、代码反哺智能体进化的闭环生态系统。该范式解决AI开发中的理念、工具和信任三大瓶颈,降低开发门槛,实现"从开发者少写代码,到开发少写代码"的目标,通过开源开放策略助力企业实现AI深度应用。

2025-11-21 10:20:32 707

原创 大模型入门必备:8种RAG架构模式全解析,建议收藏反复学习

文章详细介绍了8种主流的RAG架构模式,包括基础RAG、多模态RAG、假设文档嵌入、纠正式RAG、图RAG、混合RAG、自适应RAG和代理式RAG。每种架构都有其独特的设计理念和应用场景,从简单的检索生成流程到复杂的知识图谱增强和多代理协同系统,为不同复杂度的任务提供了多样化的解决方案。

2025-11-20 19:50:54 745

原创 【必收藏】Coze工作流提示词设计全攻略:让AI助手精准理解你的需求

文章详解了Coze工作流中提示词设计的三大关键要点:提示词概念、作用及设计方法。强调有效提示词需满足清晰、具体、有引导性,采用结构化表达,并避免常见误区。提示词应包含角色、指示、上下文等要素,且需要不断迭代调优。掌握这些技巧,能让AI工作流更精准地为生活和工作提效。

2025-11-20 19:39:53 733

原创 必学!上下文工程2.0:大模型时代的人机交互新范式(建议收藏)

《上下文工程2.0》系统阐述了上下文工程的历史演进与理论框架,揭示其从1.0到4.0的四个发展阶段。当前LLM时代处于2.0阶段,人机关系正从"人适应机器"转向"机器适应人"。文章详解了上下文工程的三大支柱:收集与存储、管理、使用,并展望了未来"上下文的语义操作系统",为理解大模型交互提供了系统视角。

2025-11-20 19:17:23 720

原创 【干货收藏】一文搞懂LangChain Agent智能体的原理与实现,零基础小白收藏这一篇就够了!!

文章介绍了LangChain中Agent智能体的概念、运行流程及多种实现方式。首先阐述了Agent的5步基础工作流程:输入理解、计划定制、工具调用、结果整合和反馈循环。然后详细讲解了ReACT智能体的实现与局限性,并介绍了更稳定的基于工具调用的智能体实现方法。最后对比了不同类型Agent(ReACT、工具调用、XML等)的异同点,指出它们都基于推理-行动-观察思想,但在提示词风格、输出解析器和输入编码方式上存在差异。

2025-11-20 11:59:15 826

原创 大模型进阶之路:我们离“真正会思考”的AI还有多远?深入理解推理LLM的原理与实践【收藏必备】

本文详细解析了推理大语言模型(LLM)的核心概念,介绍了从训练时间计算到测试时间计算的范式转变。推理LLM通过"思维过程"分解问题步骤,而非直接输出答案,主要技术包括针对验证者搜索(如多数投票、集束搜索)和修改提案分布(提示工程、训练)。随着预训练收益递减,测试时间计算成为提高模型性能的关键方向,使LLM从学习"回答什么"转向学习"如何"回答问题。

2025-11-20 11:40:03 664

原创 【深度收藏】AI Agent崛起:大模型从“博学“到“能干“的技术演进详解

AI技术正从"知识的复读机"(Fine-Tuning)向"任务的执行者"(Agent)演进。这一转变源于大模型基础能力的质变,包括思维链涌现、工具调用、长上下文窗口和多模态理解。Agent架构通过任务规划、工具调用和反思机制,突破了Fine-Tuning的静态知识、泛化能力和反馈闭环三大局限。未来,AI将向空间智能和世界模型发展,实现从认知到行动的跨越,推动多智能体协作网络落地应用。

2025-11-20 10:28:44 1043

原创 【必学】从零掌握单向量嵌入密集检索:大模型时代的信息检索核心(值得收藏)

基于嵌入的密集检索已成为现代信息系统首选方法,但单向量嵌入存在基本容量限制,无法有效处理需要检索多个文档的复杂查询。这源于固定维度向量空间的几何约束,导致无法表示所有可能的查询-文档相关性模式。为解决此问题,研究者提出了交叉编码器、多向量模型和稀疏模型等替代架构,各有优劣。未来检索系统的发展方向是混合架构,结合多种方法优势,以应对复杂AI系统和精细用户查询的需求。

2025-11-20 10:03:28 662

原创 从零开始学大模型Agent开发:构建会思考、能执行的智能体【必学收藏】

本文深入解析大模型Agent的开发架构与实践,从Agent的概念分类到核心模块(规划、记忆、工具调度)详解,再到基于Function Call和MCP协议的搭建方法,以及评估策略,帮助开发者构建真正自主的智能体系统。

2025-11-19 16:27:25 997

原创 【深度收藏】大模型入门指南:Tokenizer训练全流程详解

文章详细介绍大语言模型训练的基础步骤,重点讲解Tokenizer的三种分词方法(Word-based、Character-based、Subword)及其优缺点,并通过BPE算法演示自定义Tokenizer训练过程。同时涵盖预训练小型LLM(8000万参数)的完整流程,包括数据处理、数据集定义、预训练和SFT训练,最后展示如何使用训练好的模型生成文本,为小白和程序员提供大模型训练的基础入门指南。

2025-11-19 16:16:37 683

原创 【值得收藏】大模型技术全解析:PEFT、LoRA到模型压缩,程序员进阶必读

本文全面介绍了大语言模型的基础知识、架构和预训练方法,重点讲解了参数高效微调(PEFT)技术如适配器、LoRA和QLoRA,以及提示工程和模型压缩方法。文章详细阐述了各种量化技术(GPTQ、NF4、GGML)、知识蒸馏和剪枝等模型优化方法,为开发者提供了从基础到高级的大模型应用技术指南,帮助读者高效部署和使用大语言模型。

2025-11-19 15:03:50 1038

原创 DeepSeek-V3.2-Exp技术探秘:稀疏化技术与权重剪枝全攻略,建议收藏!!

本文详解了大模型稀疏化技术中的权重剪枝方法,包括无结构剪枝(如SparseGPT)和结构化剪枝(如LLM-Pruner)的原理、优缺点及典型实现。无结构剪枝可实现高稀疏度但硬件加速受限,结构化剪枝更硬件友好但可能带来较大性能损失。通过这些技术,可在保持模型性能的同时减小规模、提高计算效率,是优化大语言模型的重要手段。

2025-11-19 14:16:09 455

原创 【强烈推荐】MiniMind:用25.8M参数和3元成本,零门槛打造你的大语言模型(必学收藏)

MiniMind是极轻量级开源大模型项目,仅用25.8M参数(GPT-3的1/7000)、3元服务器成本和2小时训练时间即可构建可对话模型。项目提供完整技术栈,包括预训练、微调、强化学习等全流程PyTorch原生实现,支持单卡训练。通过MiniMind,开发者能直观理解大模型工作原理,大幅降低学习门槛,实现"亲手打造"大模型的梦想。

2025-11-19 11:50:12 700

原创 值得收藏:LangChain框架详解:零基础构建大模型应用的完整教程

本文详细介绍了LangChain框架,这是用于开发基于大语言模型(LLM)应用程序的开源框架。文章系统讲解了LangChain的六大核心组件:Model I/O、Chains、Memory、Tools、Agent和Retrieval。通过实际代码示例,展示了如何使用这些组件构建智能应用,并阐述了LangChain在简化大模型应用开发过程中的价值,特别适合初学者快速入门LLM应用开发。

2025-11-19 10:44:01 820

原创 【收藏】LLaMA-Factory 支持 KTransformers:大模型微调显存需求降低80%,训练吞吐量提升75%

LLaMA-Factory 团队正式支持 KTransformers 后端,为微调超大规模模型提供显存需求大幅降低、训练吞吐量更高的解决方案。微调14B模型仅需6GB显存,671B模型仅需70GB显存;14B模型训练吞吐量较HuggingFace提升约75%。该方案完全兼容原有工作流,已在多项任务中验证稳定性。用户可立即通过切换后端体验。

2025-11-19 10:22:56 580

原创 【收藏必看】港大LightReasoner:小模型也能教大模型推理,效率提升90%!

香港大学提出的LightReasoner技术挑战了"大模型一定比小模型强"的传统认知。该技术让小模型通过关键推理步骤的教学提升大模型推理能力,仅需关注约20%的关键步骤(通过KL散度识别),就能显著提升性能,同时减少90%训练时间和资源消耗。这种方法从"规模至上"转向"效率进化",为AI发展提供了新范式,代码已开源。

2025-11-18 15:18:20 608

原创 【值得收藏】AI视觉新范式:CNN与Transformer互补优势全解析

文章探讨了CNN与Transformer在AI视觉领域的结合优势。CNN具有局部归纳偏置,能高效提取局部特征但视野受限;Transformer具有全局视野,能捕捉远距离关联但效率低下。两者结合实现了"分工明确":CNN负责特征预处理,Transformer负责全局整合,既保留了CNN的高效性,又获得了Transformer的全局精准性,在多个场景中实现了性能与效率的平衡,体现了AI模型"扬长避短"的进化逻辑。

2025-11-18 15:06:09 224

原创 【收藏学习】大模型Agent架构演进:从浅层循环到深度代理的技术解析

文章介绍了Agent架构从"浅层循环"到"深度代理"的演进过程。早期Agent基于"观察-思考-行动"的简单循环,虽然响应快速但缺乏深度战略规划,无法处理多子任务分解。新一代Agent引入深度架构,能自主探索数据,反思输出,并通过反馈循环实现自我优化,称为"Deep Agent"。这种架构跃迁使Agent具备了更强的任务处理能力和战略规划能力。

2025-11-18 14:45:21 636

原创 【必学收藏】从零开始掌握Transformer:注意力机制、编码器-解码器架构与Python实战详解

本文详细解析了Transformer模型的核心原理与实现,包括注意力机制、自注意力计算过程、编码器-解码器架构、位置编码、多头注意力和前馈网络等关键组件。通过Python代码示例,展示了从基础组件到完整模型的构建过程,并介绍了模型训练评估方法及BERT、GPT等高级应用。文章为理解大语言模型的基础架构提供了全面指导。

2025-11-18 14:20:31 868

原创 程序员必看!AI提效秘籍:心力教练+自动化工作流,收藏级干货

文章分享AI在生活和工作中的实际应用,包括作为生活助理解决选择困难、知识查询等问题,以及作为工作重塑工具。重点介绍AI作为"心力教练"帮助自我觉察的三大提示词模板,以及AI驱动的自动化工作流构建方法,涵盖信息输入、协同中枢和业务执行。这些方法不仅是效率提升,更是"个体崛起"时代的核心竞争力,适合小白和程序员收藏学习。

2025-11-18 11:45:25 410

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除