自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(661)
  • 收藏
  • 关注

原创 大模型微调(Fine-Tuning)全流程思考

大模型微调的过程💡建议严格按照此流程来,不要跳步,不然可能会做无用功。 比如如果没有好好构建数据集,最后发现微调模型效果不佳是数据集的问题,就事倍功半了。 

2025-06-09 19:22:58 511

原创 大模型调用外部工具4大方案深度解析

大模型调用外部工具4大方案深度解析:API、Function Call、LangChain、MCP技术架构对比图

2025-06-04 21:41:28 621

原创 99%的人学大模型的状态,今天教你怎么正确学大模型!

99%的人学大模型的状态:热情、懵逼、放弃。喜欢在网上自学的收藏夹里一大堆吃灰的视频教程,今天教你怎么做开挂玩家。20位大佬爆肝整理的大模型防脱发学习法来了,从入门到封神只需三步:

2025-06-04 21:35:10 730

原创 清华大学新RAG框架:DO-RAG 准确率飙升33%!

清华大学团队提出DO-RAG框架,创新性地将动态知识图谱与检索增强生成技术结合,显著提升专业领域问答系统的准确率。该框架通过多智能体流水线自动构建知识图谱,融合图推理与语义搜索实现双轨检索,并采用三阶段答案生成与校验机制,在数据库领域测试中以94%的准确率领先主流方案33个百分点。实验证明,DO-RAG能有效解决复杂文档关联割裂、专业术语理解不足等问题,模块化设计支持快速迁移至新领域,为知识密集型任务提供了可靠解决方案。

2025-05-29 19:44:05 977

原创 2025最全面1000+常见AI大模型面试题及答案,助你备战金九银十

大模型面试与优化技术解析 本文系统梳理了大模型相关面试问题及答案,涵盖基础理论、进阶应用、框架使用及优化技术。基础篇解析了主流开源模型体系、语言模型类型及涌现能力原理;进阶篇探讨了输入长度限制、复读机问题及模型选型建议;大模型章节详细介绍了LangChain框架及其应用;分布式训练部分对比了主流框架及并行策略;推理优化章节分析了显存占用原因、硬件性能差异及量化技术特点。全文提供了从理论到实践的全面指导,助力开发者深入理解大模型技术体系及优化方法。

2025-05-29 19:42:55 850

原创 图解 LLM(大语言模型)的工作原理

本文通过通俗易懂的图解方式讲解了大型语言模型(LLM)的工作原理。首先以条件概率为例,解释了LLM预测下一个单词的核心机制——基于上下文计算各单词的条件概率并选择最高概率的单词。接着介绍了损失函数(交叉熵损失和负对数似然)在模型训练中的作用,以及温度参数对生成多样性的影响:低温使输出更确定但缺乏创意,高温增加随机性但可能降低连贯性。最后提供了LLM学习的系统路线图,涵盖从提示词工程到多模态应用等七个阶段,帮助读者掌握AI大模型开发的核心技能。

2025-05-29 19:35:58 892

原创 大模型时代:基层程序员的挑战、机遇与转型之路_大模型时代下传统研发人员应该如何转型

在数字化浪潮的汹涌推进下,大模型——这些集成了深度学习、自然语言处理等先进技术的AI系统,正以前所未有的力量重塑着各行各业,尤其是技术领域。它们凭借高效的数据处理能力、智能化的决策支持以及不断学习进化的特性,逐渐成为企业优化成本、提升效率的重要工具。对于基层程序员而言,这一变革既是挑战也是机遇。————————————————

2025-05-28 21:58:33 1031

原创 Claude 4 核心成员访谈:提升 Agent 独立工作能力,强化模型长程任务能力是关键

「2025 年最大的变化,是强化学习在大语言模型训练上终于开始奏效了。」这是 Anthropic 的两位研究员,Sholto Douglas(专注于强化学习)和 Trenton Bricken(研究机制可解释性)对于今年模型趋势变化的总结。Gemini 2.5 Pro 和 Claude Opus 4 的发布也变相证明了这个判断。在 Dwarkesh Podcast 这期两个半小时的采访中,两位研究员对于 RLVR(可验证奖励的强化学习)、模型的自我意识、以及 Claude 一直专注的「模型可解释

2025-05-28 21:50:52 717

原创 《大型语言模型实战指南:应用实践与场景落地》一文详解如何让大模型更好地进行场景落地?_型语 模型实战指南:应 实践与场景落地

《大型语言模型实战指南》是一本聚焦大型语言模型(LLM)应用落地的实践手册,由刘聪等专家合著,系统讲解LLM的核心技术与场景化应用。全书覆盖三大核心内容: 基础理论:详解Transformer架构及GPT等主流模型原理; 高效调优:提供前缀调优、LoRA等10余种轻量化微调方法,解决算力消耗痛点; 实战场景:涵盖SQL生成、角色扮演、知识库问答等7大应用案例,并附加LangChain开发AutoGPT等进阶内容。书中特别强调通过参数优化技术(如QLoRA)实现高性能低成本部署,配套640份行业报告及完整学习

2025-05-27 21:55:35 1067

原创 Agent也能蒸馏了!性能超好

大模型面临高成本困境,而小模型存在能力不足问题。最新研究提出"Agent蒸馏"方法,通过教小模型使用检索和代码工具(而非死记硬背),配合"首思前缀"和"自我纠错"机制,使0.5B小模型性能接近1.5B传统模型,3B小模型甚至超越7B大模型。该方法特别在高难度数学题上表现优异,为低成本智能助手开发提供了新思路,未来有望在移动设备上实现大模型的部分功能。研究还包含完整的大模型学习路线和实战资料。

2025-05-27 21:49:52 898

原创 yyds!一个大模型的新方向,彻底爆发了!!

AI大模型技术重构程序员职业发展路径 摘要:随着AI大模型技术快速发展,传统CRUD开发模式正被颠覆,30+程序员面临职业转型挑战。AI项目经验即将成为就业门槛,RAG、Agent、Function Call等技术成为核心竞争力。行业数据显示,AI技术岗薪资可达50K*20薪,而传统岗位持续缩减。为应对技术变革,建议系统学习LLM大模型知识,掌握从提示词工程到微调开发的全栈技能。学习路径包括7个阶段:系统设计、提示词工程、平台开发、知识库应用、微调开发、多模态应用和行业解决方案。获取完整学习资源可扫描文末二

2025-05-26 10:15:15 825

原创 在文本分类任务上,Qwen3-0.6B真的比Bert效果好么?

本文比较了Qwen3-0.6B和Bert在中文文本分类任务上的表现。实验使用AG_news数据集,通过两种方法训练Qwen3:线性层分类和Prompt微调。结果显示Bert在测试集上F1最高达0.945,而Qwen3的线性层分类方法表现稍逊。后续计划进一步研究Qwen3在不同数据难度下的性能变化、思考模式的影响,以及在其他复杂分类任务中的表现。实验表明,虽然Qwen3参数量更大,但在当前设置下尚未超越专门优化的Bert模型,但展示了小模型在特定场景的应用潜力。

2025-05-26 10:10:19 605

原创 工业互联网工控安全工业质检AI大模型设计方案(WORD)

工业AI质检方案通过深度学习技术实现产品质量自动化检测,包含数据采集标注、模型训练、实时监控和持续优化四个关键步骤。该方案能显著提升质检效率(节省人工成本)、降低误判率、实现质量实时反馈,并为生产决策提供数据支持。相关资料已上传优快云平台,提供完整版大模型AI学习资料免费领取。

2025-05-24 17:56:15 1012

原创 MCP + 数据库,一种比 RAG 检索效果更好的新方式!

本文介绍了一种基于MCP(模型上下文协议)提升大模型外部知识检索精度的方法,相比传统RAG技术具有显著优势。文章首先分析了RAG技术的局限性,包括检索精度不足、生成内容不完整等问题。然后详细介绍了MCP协议作为AI模型与外部资源交互的标准化解决方案,通过与Function Call的对比,突出MCP具有协议统一、扩展性强等特点。最后通过实际案例展示了MCP+数据库方案在结构化数据检索中的优异表现,能够实现text to SQL的效果,有效解决了RAG在精准检索方面的痛点。随着主流AI平台对MCP的支持,该技

2025-05-24 17:48:35 616

原创 说实话,算法岗transformer面试确实有难度.

说实话,算法岗transformer面试确实有难度.

2025-05-22 11:36:23 790

原创 Llama 4架构解析与本地部署指南:MoE模型在170亿参数下的效率突破_llama-4-maverick-17b-128e-instruct

Meta最新发布的Llama 4系列标志着开源大语言模型(LLM)的重大演进,其采用的混合专家(MoE)架构尤为引人注目。两大核心模型——Llama 4 Scout(170亿参数含16专家)和Llama 4 Maverick(170亿参数含128专家)——展现了Meta向高效能AI模型的战略转型,这些模型在挑战传统扩展范式的同时保持了强大性能。本文将深入解析这些模型的技术原理、架构创新、训练方法、性能基准测试及安全措施。通过多维度技术剖析,我们可以更清晰地理解Meta如何突破计算效率型大语言模型的能

2025-05-22 11:11:39 723

原创 AI领域名家名作,大模型学习书籍推荐-关于大模型的教科书(附pdf)

目前国内关于大模型的教科书已经至少有三本了,而且都是公开了pdf版本可以直接下载的。《大语言模型》是一本由中国人民大学高瓴人工智能学院教授赵鑫等编著的书籍,旨在为大模型技术的入门读者提供系统性的知识讲解,展现一个完整的大模型技术框架和发展路线图。以下是对该书的详细评价:

2025-05-22 11:08:47 1051

原创 一文搞懂大模型、RAG、函数调用、Agent、知识库、向量数据库、知识图谱、AGI 的区别和联系

我们要把 AI 大模型当做人的大脑,因此调用 AI 大模型,相当于调用一个人,把 AI 大模型当人看,TA 懂人话、TA 说人话、TA 会直接给出结果,但结果不一定正确。因此在 AI 大模型的推理基础上,通过 RAG、Agent、知识库、向量数据库、知识图谱等技术手段实现了真正的 AGI(通用人工智能)。这些技术到底有哪些区别和联系,下图作了横向对比,接下来我们详细剖析下。

2025-05-22 11:00:38 997

原创 2024 Github 十大最佳 RAG 框架_github ragflow

检索增强生成(RAG)已成为增强大型语言模型能力的一项强大技术。RAG 框架结合了基于检索的系统和生成模型的优势,可以做出更准确、更能感知上下文和更及时的响应。随着对复杂人工智能解决方案需求的增长,GitHub 上出现了许多开源 RAG 框架,每个框架都具有独特的特性和功能。 RAG 框架有哪些功能?

2025-05-22 10:57:40 904

原创 假如你从5月13号开始学AI大模型

假如你从5月13号开始学AI大模型那么这里有一条精心规划的学习路径推荐给你:

2025-05-15 21:24:08 896

原创 突破LLM的token限制:多块上下文保留的实用系统(含code)

大语言模型(LLMs)取得了令人瞩目的进展,已广泛应用于文本生成、翻译、问答等诸多场景。然而,LLMs存在的一些局限性,如有限的上下文窗口(令牌限制)和缺乏长期记忆,限制了其在处理复杂任务时的表现。本文将深入探讨一种实用的解决方案,旨在克服这些限制,提升LLMs的性能。

2025-05-15 20:26:18 945

原创 Java开发者如何成功转型AI大模型领域:路径与策略

在AI大模型技术席卷全球的浪潮下,传统Java开发者正面临前所未有的职业转型机遇。据LinkedIn 2023年报告,AI相关岗位增长率高达74%,而具备传统开发经验又掌握AI技能的复合型人才尤为稀缺。本文将从Java开发者视角出发,系统性地探讨如何实现向AI大模型领域的平滑转型,提供可落地的技术路径和学习策略。

2025-05-12 14:05:14 1157

原创 深入浅出 GenAI 关键概念—— 从 RAG、Function Calling、MCP 到 AI Agent

随着大语言模型飞速演进,其在知识时效、生成准确性以及与外部系统交互方面的局限也愈发显现。为此,检索增强生成(RAG)、函数调用(Function Calling)、模型上下文协议(MCP)与 AI 智能体(AI Agent)等一系列技术相继涌现,为模型补足“知识新鲜度”与“操作执行力”。近期 CloudCanal 也推出了 RagApi 功能,并引入了 MCP 协议。本文将聚焦 RAG、Function Calling、MCP、AI Agent 等核心概念,并介绍 CloudCanal 在 RAG 架构上的

2025-05-12 11:43:32 897

原创 4.7万Star!从零开始构建大语言模型!这个GitHub宝藏项目让你彻底理解LLM核心原理

想了解大语言模型(LLM)内部原理,但被复杂的技术细节吓退?别担心,今天给大家介绍一个真正的GitHub宝藏项目 - LLMs-from-scratch,目前已经收获了惊人的47359个star!这个项目不是简单的API调用教程,而是从零开始手把手教你构建GPT类大语言模型的完整代码库。

2025-05-10 11:50:21 575

原创 一篇Multi-Agent具身智能技术最新综述

具身AI(Embodied AI)已成为学术界和工业界的前沿领域,其应用涵盖了机器人技术、医疗保健、交通运输和制造业等多个领域。然而,大多数研究主要集中在假设环境静态且封闭的单智能体系统上,通常依赖于简化的模型,无法完全捕捉多智能体具身AI动态开放环境的复杂性。

2025-05-10 11:44:07 595

原创 35岁程序员转行大模型:掌握关键步骤,开启AI新征程_35岁以后得程序员该学什么

无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。现如今大模型岗位需求越来越大,但是相关岗位人才难求,薪资持续走高,AI运营薪资平均值约18457元,AI工程师薪资平均值约37336元,大模型算法薪资平均值约39607元。很多人学习大模型的时候没有方向,东学一点西学一点,像只无头苍蝇乱撞,下面是我整理好的一套完整的学习路线,希望能够帮助到你们学习AI大模型。第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

2025-05-09 22:32:25 1042

原创 用DeepSeek和AnythingLLM搭建个人知识库,简单又省事,关键还好用

DeepSeek从发布R1版本后,瞬间掀起了全球关注热潮!无论是技术大咖还是普通用户,都迫不及待地在试用这个神器。从一线开发者到三四线城市的网友,大家都在争先恐后地探索如何利用DeepSeek优化自己的工作和生活。你也许已经在朋友圈看到各种关于DeepSeek的讨论和分享,也有些人已经用他提升了自己的工作效率,自媒体也使劲的宣传为自己赢得流量

2025-05-09 22:22:37 893

原创 全网爆火神书《从零构建大模型》终于有中文版的啦!LLM大模型神仙入门书籍教程分享!

《从零构建大模型》这本书主要使用的是 pytorch 框架,而不是依靠各种库。通过它,不仅可以掌握 LLM 的理论知识,还能通过动手实践,学习如何从头构建一个功能强大的语言模型。这本书从大模型的基础知识讲起,从内到外地分析大模型的工作原理,并用清晰的文本、图表和示例解释,引导读者逐步创建属于自己的大模型。

2025-05-08 10:59:47 409

原创 两大智能体框架 Dify vs Langchain 怎么选 ? 来一个彻底、全面、深入的分析

在 AI 智能体应用 开发的世界里,选择一个合适的框架是至关重要的。选对智能体 平台非常关键, 它直接影响你的AI应用的效率、可扩展性和整体表现。一个合适的平台能简化开发过程,增强模型集成,并优化 用户体验。近年来,AI 智能体应用开发工具经历了显著的演变。框架类型核心功能许可证主要语言LangChain开发者工具包模块化LLM编排、RAG、代理MITDify低代码平台快速应用开发、RAG、代理Apache 2.0Python, JSLlamaIndex数据框架。

2025-05-08 10:53:36 902

原创 如何快速入门大模型?写给小白的大模型技术学习路线!

经验总结:定期回顾学习过程,总结技术要点和实战经验跨学科融合:探索大模型在其它领域(如金融,法律,医疗等)等应用,扩展知识广度‍如果用一句话总结就是,学习——实践——再学习——再实践。在大模型时代,我们如何有效的去学习大模型?现如今大模型岗位需求越来越大,但是相关岗位人才难求,薪资持续走高,AI运营薪资平均值约18457元,AI工程师薪资平均值约37336元,大模型算法薪资平均值约39607元。掌握大模型技术你还能拥有更多可能性。

2025-05-08 10:51:28 1363

原创 大厂大模型必知的5种agent模式

大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。如果你是零基础小白,想快速入门大模型是可以考虑的。

2025-05-07 20:45:29 796

原创 AI大模型学习总结

先说结论:我认为每天学4小时,两个月的时间可以对AI大模型有一个系统的入门。接下来我想说说这60天的学习心得,分享给那些想入行AI大模型,或者刚刚起步的同学。

2025-05-07 20:43:47 1002

原创 RAG最佳实践:一篇让你不再迷茫的指南

重排序:monoT5综合表现最佳,TILDEv2适合快速实验摘要:Recomp碾压其他方案,但会牺牲些许延迟📌 我的私藏技巧:尝试“逆向重组”(Reverse Packing),把关键信息放在输入的开头或结尾——LLM更容易捕捉重点!

2025-05-06 10:54:50 951

原创 一下午面了三个大模型岗,全是一言难尽...

真服了,我不信有这个题,还不会常见的业务题。

2025-05-06 10:51:40 1085

原创 一文详谈RAG优化方案与实践

阿里妹导读RAG通过检索现有的大量知识,结合强大的生成模型,为复杂的问答、文本摘要和生成任务带来了全新的解决方案。本文详细的介绍了RAG遇到的挑战、通用范式、工程实践、优化实现策略等。一、RAG的背景介绍随着ChatGPT的兴起,大语言模型再次走进人们的视野,其在NLP领域表现出的语言识别、理解以及推理能力令人惊叹。越来越多的行业开始探索大语言模型的应用,比如政务、医疗、交通、导购等行业。通义系列、GPT系列、LLama系列等模型,在语言交互场景下表现十分抢眼。

2025-05-05 13:00:00 794

原创 复旦大学《大规模语言模型:从理论到实践》完整PDF和PPT课件下载

大语言模型(Large Language Models,LLM)是一种由包含数百亿以上权重的深度神经网络构建的语言模型,使用自监督学习方法通过大量无标记文本进行训练。自2018年以来,包含Google、OpenAI、Meta、百度、华为等公司和研究机构都纷纷发布了包括BERT, GPT等在内多种模型,并在几乎所有自然语言处理任务中都表现出色。2021年开始大模型呈现爆发式的增长,特别是2022年11月ChatGPT发布后,更是引起了全世界的广泛关注。

2025-05-04 05:30:00 1032

原创 大模型年度书籍推荐!《AI大语言模型的基础与前沿》,优质书籍程序员必看!

全球首个完全自主的 AI 软件工程师上线,它是来自 Cognition 这家初创公司的产品——Devin, 这个名字也随即引爆了科技圈。话说 Devin 有多能干?它能实现端到端的完整项目开发。也就是说,只需一句指令,Devin 就可以从零构建出一个完整互联网应用,其他工作还可以自主查找并修复代码中的 bug,甚至是训练和微调自己的 AI 模型。更厉害的是,Devin 还通过了一家 AI 公司的技术面试,并且在 Upwork 上完成了实际工作。

2025-05-02 12:30:00 698

原创 RAG破局之战:详解靠谱答案的底层逻辑,告别大模型幻觉

什么是RAG?RAG(Retrieval-Augmented Generation,检索增强生成)是一种结合了**信息检索(Retrieval)和文本生成(Generation)**的技术。RAG技术通过实时动态地从外部知识库中检索相关信息,并将其作为上下文输入生成模型中,从而减少模型因“知识盲区”或训练数据过时而产生的错误(幻觉问题),提高生成结果的时效性和准确性。总结一句话:RAG就是给AI装上"知识导航",通过检索外部数据,增强大模型的生成效果****重要性:RAG是当前大模型落地的重要技术之一,尤

2025-05-01 13:45:00 685

原创 AI大模型优化指南:RAG、提示工程与微调的应用场景解析

随着技术的不断进步,大模型的优化方式也在不断演化。从传统的提示调整到更智能的检索生成,AI模型正在向着更高效、更智能的方向发展。未来,我们可能会看到更多智能化的优化工具和方法,例如自动微调、实时上下文检索等,将进一步提升模型的智能化水平和应用效果。对于AI从业者和开发者来说,掌握这些优化手段不仅可以提升自身项目的成功率,还能在竞争激烈的AI时代中占据有利位置。

2025-04-30 16:44:26 838

原创 AI大模型·白皮书 | 清华大学-关于人工智能大模型的几点思考2025

人工智能进入大模型时代,大模型从单模态向多模态发展,在文本交互、图像创作、视频生成等方面成果显著,并加速行业智能化升级。但大模型发展面临数据存储、算力、数据预处理等挑战,如海量小文件存储的元数据管理难、训练需海量算力、数据预处理开销大等。为此提出多种解决方案,包括设计新的文件系统、以数据为中心的计算模式、分布式检查点策略等。同时,中国 AI 内循环加速,国产算力快速发展,相关基础软件层不断完善,在大模型训练和推理方面取得性能提升。技术报告的思维导图如下:这篇由。

2025-04-23 21:30:03 956

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除