自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(25)
  • 收藏
  • 关注

原创 【Hot100-Java中等】LeetCode 11. 盛最多水的容器:双指针法的直观理解与数学证明

本文深入解析LeetCode第11题"盛最多水的容器",通过分析题目核心公式和暴力解法的局限性,重点介绍了双指针优化算法。文章详细阐述了"谁短动谁"的移动策略原理,并给出严谨数学证明,说明该策略能确保最优解。最后提供了Java代码实现和复杂度分析,指出这道题是贪心算法与双指针结合的经典案例,关键在于理解如何通过移动短板指针来高效缩小搜索空间。

2025-12-30 00:10:54 618

原创 【Hot100-Java简单】/LeetCode 283. 移动零:两种 Java 高效解法详解

LeetCode283题要求将数组中的0移到末尾,保持非零元素顺序且原地操作。本文提供两种Java解法:方法一采用"覆盖后填充"策略,先移动非零元素再补零,时间复杂度O(n);方法二使用双指针交换技术,通过一次遍历完成操作。分析比较了两种方法在操作次数、代码可读性和适用场景上的差异,推荐Java开发者优先使用方法一,因其逻辑清晰且利用了高效的Arrays.fill方法。两种解法均满足题目要求的O(1)空间复杂度。

2025-12-29 23:27:00 716

原创 【Hot100-Java中等】/LeetCode 128. 最长连续序列:如何打破排序思维,实现 O(N) 复杂度?

摘要:LeetCode 128题"最长连续序列"考察哈希表的灵活运用。核心思路是使用HashSet存储数字实现O(1)查找,并通过判断"num-1是否存在"来定位序列起点,避免重复计算。关键优化在于只有当数字是序列起点时才进行统计,确保每个元素最多被访问两次(存入Set和遍历),使算法时间复杂度严格控制在O(N)。需注意遍历Set而非原数组以避免重复元素导致的性能退化。该解法展现了空间换时间和剪枝优化的经典算法思想。

2025-12-29 21:15:12 687

原创 GraphRAG

维度擅长场景静态、复杂的长文本(如书籍、历史档案、法律卷宗);需要回答宏观总结性问题。动态数据(如新闻、业务文档);既有细节查询又有逻辑推理;对成本敏感。构建成本极高。需要大量 LLM 调用来生成“社区报告”。中等。主要是实体提取的开销,没有繁重的社区摘要步骤。数据更新困难。牵一发而动全身,通常适合离线批量处理。丝滑。支持增量插入(Incremental Insert),无需重建索引。检索逻辑MapReduce 模式(全局)+ 邻居搜索(局部)。双层路由:关键词匹配向量 + 图谱关系游走。技术栈。

2025-12-29 15:05:52 932

原创 【Hot100-Java中等】:字母异位词分组

摘要:本文分析了LeetCode第49题关于字母异位词分组的两种解法。第一种采用排序法,通过将字符串排序后作为HashMap的Key;第二种采用计数法,通过统计字符频次生成唯一Key。重点探讨了Java中char[]数组和StringBuilder的toString()方法差异:数组默认返回内存地址,而StringBuilder返回实际内容,这决定了能否作为有效Key。两种方法的时间复杂度均为O(NK),其中计数法在K较大时更优。文章通过代码示例和比喻深入解释了对象机制对算法实现的影响。

2025-12-28 23:44:55 889

原创 【Hot100-Java简单】:两数之和 (Two Sum) —— 从暴力枚举到哈希表的思维跃迁

本文介绍了两种解决"两数之和"问题的方法。暴力枚举法通过双重循环穷举所有组合,时间复杂度为O(N²),空间复杂度O(1),适合数据量小的情况。哈希表法利用哈希表存储已遍历元素,将查找时间降至O(1),使整体时间复杂度优化为O(N),但需要O(N)的额外空间。两种方法各具优势:暴力法节省内存但效率低,哈希表法以空间换时间,在通用场景下性能更优。根据具体需求选择合适方法,哈希表法通常是更优选择。

2025-12-28 23:11:37 979

原创 深入 LangChain LCEL 的 10 个核心特性

摘要:LangChain表达式语言(LCEL)是AI应用开发的重要工具,提供了10个核心特性解决生产级问题:1)数据流控制(RunnablePassthrough、RunnableParallel);2)运行时参数绑定;3)自定义逻辑嵌入;4)混合开发装饰器;5)流式处理支持;6)容错回退机制;7)记忆管理;8)动态路由决策;9)可视化调试工具。LCEL实现了从脚本开发到声明式编排的转变,通过标准化语言帮助开发者构建稳定、智能的认知架构系统,显著提升AI应用的可靠性、灵活性和可维护性。(149字)

2025-12-25 22:26:12 716

原创 深度解析RAG(检索增强生成)技术

摘要: RAG(检索增强生成)技术通过结合检索与生成,解决大模型在垂直领域应用时的知识局限、幻觉问题和数据隐私挑战。其核心流程包括离线数据准备(文本分割、向量化存储)和在线智能问答(检索相关片段并生成答案)。以“藜麦”知识库为例,RAG利用本地数据精准回答专业问题,避免通用模型的胡编乱造。该技术无需重新训练模型,成本低且保障数据安全,是企业快速构建私有化AI助手的高效方案。

2025-12-25 19:15:55 875

原创 大模型应用评估—— 从 BLEU 到 Agent 综合评价

摘要:随着大语言模型应用形态的演进,传统NLP评估指标已无法满足需求。本文提出"LLM-as-a-judge"新范式,通过大模型作为裁判进行语义评估,并针对三类主流应用给出具体评估方案:多轮对话系统侧重相关性、知识留存和安全性;RAG系统需分别评估检索质量和生成质量;智能体则需测试工具调用准确率和任务完成度。文中还推荐了RAGAS、DeepEval等开源评估框架,强调评估体系需与具体场景深度结合,建立自动化测试流程才能实现持续优化。

2025-12-24 23:28:51 681

原创 简要分析LoRA、DoRA 原理与代码实现

这是一篇基于和原理与代码实现的详细指南。

2025-12-22 15:49:04 633

原创 大模型微调的三种方式:全参数微调、SFT与LoRA

本文对比分析了三种大模型微调技术:全参数微调(更新所有参数)、监督微调(SFT,侧重指令对齐)和LoRA(低秩适应,仅训练少量参数)。全参数微调适合领域重构但成本高,SFT擅长指令对齐,LoRA则资源友好但表达能力受限。建议资源充足时采用全参数微调或SFT,资源有限时选择LoRA,或结合SFT与LoRA实现通用性与专业性的平衡。技术选择应基于具体任务需求、数据特点和算力条件。

2025-12-11 14:27:14 858

原创 AI Agent 的进化之路:从装备“超级义肢”到修炼“内在智慧”

本文探讨了构建高级AIAgent的两大关键进化维度:通过集成工具链赋予"超能力",以及通过反思与规划策略提升认知智慧。在工具层面,重点分析了代码执行、Web浏览器和知识图谱三大"神器"的功能与协同机制,强调结构化定义和动态路由的重要性。在认知层面,提出自我反思机制和复杂规划策略(树状/图状思考),并阐释了知识图谱在推理优化中的核心价值。最终呈现了一个兼具强大执行力和高级思维能力的AIAgent完整架构,为实战开发提供了系统性的设计框架。

2025-12-10 16:00:41 895

原创 【Agent 核心架构】深度解析主流执行逻辑:ReAct 与 Plan-and-Execute

本文深入解析了AIAgent领域的两种主流执行逻辑:ReAct(推理与行动)和Plan-and-Execute(规划与执行)。ReAct采用"思考-行动-观察"的迭代循环,具有灵活性和适应性强的特点,适合处理动态环境;而Plan-and-Execute采用先规划后执行的线性流程,执行效率高但适应性较差。文章通过对比分析两者的优劣势,并以天气查询任务为例展示了不同执行逻辑的行为差异,为开发者选择适合场景的Agent架构提供了指导。最后指出在复杂场景中可将两者结合使用,以兼顾规划的结构性和执

2025-12-10 12:12:53 1085

原创 Agent 与 LLM 的关系及技术实现

LLM(如 GPT-4, Llama 3, Qwen)本质上是一个概率预测机器。输入一段文本,根据海量训练数据,概率性地预测下一个 Token 是什么。它是静态的、被动的。它没有身体,无法联网(除非外挂),无法直接操作数据库,且它的知识截止于训练结束的那一刻。它就像一个被锁在密室里、读过人类所有书籍的“天才”,但他瘫痪在床,且与外界完全隔绝。Agent 指的是一个能够感知环境、进行推理决策,并采取行动以实现特定目标的自主系统。LLM 爆发后,Agent 被赋予了新的含义。

2025-12-09 16:37:18 644

原创 什么是融入 CoT 写 prompt

本文深入探讨思维链(CoT)从用户技巧到模型本能的演变过程。在用户层面,CoT通过"一步步思考"的提示词引导AI展示推理过程,分为零样本和少样本两种应用方式。在模型层面,以DeepSeek-R1为例,详细解析了CoT内化的四个阶段:冷启动SFT建立格式、强化学习逼出推理能力、泛化训练扩展应用场景、RLHF对齐人类价值观。文章指出,新一代模型已内化CoT能力,自动进行深度思考,而传统模型仍需依赖提示词引导。这种进化使AI从被动模仿推理发展为具备类似人类的主动思考本能。

2025-12-09 15:55:40 600

原创 大模型强化学习(RL)算法的演进

摘要:大模型对齐技术经历了从PPO到SAPO的四阶段演进。PPO作为传统强化学习方法稳定但资源消耗大;DPO简化流程但缺乏探索性;GRPO通过组采样优化实现高效推理训练;最新DAPO/GSPO/SAPO方案则针对长文本和MoE模型进行优化,通过动态采样、序列级约束和软门控等创新解决熵坍塌和稳定性问题。这一演进路径展现了从复杂到精简再到精细化的发展趋势,使大模型在保持性能的同时显著提升了训练效率。

2025-12-08 17:16:09 934

原创 DeepSeek 演进历程(2023.11 — 2025.12)

摘要: DeepSeek(深度求索)从2023年至今完成了从追赶者到AGI领跑者的蜕变,其发展分为五个阶段: V1阶段(2023-2024初):聚焦代码与数学能力,以DeepSeek Coder V1在开发者圈层引爆,击败千亿参数模型。 V2阶段(2024年中):通过MLA(多头潜在注意力)和MoE架构实现极致成本优势,发动“价格战”成为企业首选。 V3阶段(2024年底):采用FP8训练和MTP技术,以算法优化突破算力限制,性能对标GPT-4o,成为最强开源基座。 R1阶段(2025年初):开源GRPO强

2025-12-05 23:35:47 553

原创 一文介绍Llama的发展历程

LLaMA 1到3的飞跃,主要不是靠改模型结构(一直都是Decoder-only Transformer),而是靠更高质量的数据清洗(Data Curation)和更暴力的Scaling。Meta证明了:即便模型参数不大(如7B, 13B),只要用足够多、足够高质量的数据(1T tokens)去“过饱和”训练,性能可以吊打比它大得多的模型(如GPT-3 175B)。:模仿了OpenAI o1系列的思路,强化了CoT(思维链)能力,使其能够处理复杂的数学和编码任务。:这是LLaMA 3.1的皇冠。

2025-12-04 23:07:15 534

原创 关于最近大火的Vibe Coding,谈一谈我的理解与看法

VibeCoding是近期流行的AI编程范式,强调通过自然语言交互让AI生成代码,开发者仅需关注结果而非实现过程。这种由Andrej Karpathy等推动的模式,本质上是AI辅助编程的营销包装,依靠大模型的算力和长上下文能力实现。其优势在于降低编程门槛、提升开发效率,但存在代码质量差、维护困难等风险。专业人士需警惕过度依赖导致的技能退化,同时也要看到其对编程民主化的积极意义。VibeCoding反映了AI时代编程范式的转变,未来核心竞争力可能从编码能力转向技术判断力。

2025-12-03 17:19:08 1212

原创 Lora原理、图解及实现

LoRA (Low-Rank Adaptation) 是一种非常高效的微调(Fine-tuning)技术,目前广泛应用于大语言模型(LLM)和图像生成模型(如 Stable Diffusion)的定制化训练中。

2025-12-02 18:18:22 1006

原创 一篇文章足够带你入门Qwen系列大模型

摘要:阿里云通义千问(Qwen)系列模型从初代到3.0版本实现了跨越式发展。Qwen1.0奠定中英双语基础架构,采用RoPE位置编码;1.5版本突破32K长上下文并增强多语言能力;2.0引入SwiGLU激活函数和GQA注意力机制,支持128K上下文;2.5通过双阶段强化学习优化指令遵循;3.0创新性采用双模式思考机制(深度/快速)和MoE稀疏架构。技术演进呈现三大趋势:基础架构从稠密到超稀疏MoE的转变,训练范式从监督学习到复杂强化学习的升级,应用场景从单一文本到多模态智能体的拓展。最新Qwen3-Next

2025-12-01 19:04:38 1420

原创 2025-3-15 | 论文分享 | M³amba: CLIP-driven Mamba Model forMulti-modal Remote Sensing Classification

4.融合特征:多张特征输入输出一个融合特征,用attention,若是有顺序,加上position embedding。使用CLIP(ViT-B/16)图像编码器提取多模态图像的语义特征,并通过模态特定适配器增强模态感知能力。C:无监督一致性损失:移除后,模型性能显著下降,表明其对模态一致性的增强效果。kappa (κ):模型生成的分类图与地面真相之间的一致性的统计度量。结合CLIP的语义提取和Mamba的高效建模,提出一种。2.RSMamba:都是分类,单模态和多模态的区别。

2025-03-17 21:11:58 2239

原创 【汇总】图像生成/编辑方向常用评估指标总结

通过合理选择指标组合,可全面评估模型的生成质量、语义一致性和任务完成度。

2025-03-17 16:25:22 3406

原创 一篇博客充分理解Binary Latent Diffusion

直接在像素空间中表示和生成图像会刺激各种研究,随着分辨率的增长,准确回归像素值变得越来越困难。在展示出色的生成图像质量的同时,GAN 模型存在模式覆盖率不足和训练不稳定性等问题。潜在扩散在维数低于像素空间的潜在特征空间中进行去噪,从而降低了每个去噪步骤的成本。然而,回归实值潜在表示仍然很复杂,需要数百个扩散步骤。变分自动编码器 (VAE)在没有任何迭代步骤的情况下生成图像。然而,潜在空间的静态先验限制了表现力,并可能导致后塌陷。

2024-10-21 16:40:35 2308

原创 扩散模型基础串烧(DDPM、DDIM、Stable Diffusion、VAE重参数化)

我们使用扩散概率模型展示了高质量的图像合成结果,这是一种受非平衡热力学考虑启发的潜在变量模型。我们最好的结果是通过对加权变分界进行训练获得的,该边界是根据扩散概率模型和与朗之万动力学的去噪分数匹配之间的新联系设计的,我们的模型自然承认渐进式有损解压缩方案,可以解释为自回归解码的泛化。在无条件 CIFAR10 数据集上,我们获得了 9.46 的 Inception 分数和 3.17 的最新 FID 分数。在 256x256 LSUN 上,我们获得了类似于 ProgressiveGAN 的样本质量。

2024-06-14 01:52:19 824

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除