大模型应用实战
文章平均质量分 85
大模型应用实战含微调、提示工程,API集成、部署优化等,结合行业案例解析技术落地场景。另收录包含RAG专题,Agent专题,LLM重构数据科学流程专题,端侧AI专题
余额抵扣
助学金抵扣
还需支付
¥129.90
¥299.90
购买须知?
本专栏为图文内容,最终完结不会低于15篇文章。
订阅专栏,享有专栏所有文章阅读权限。
本专栏为虚拟商品,基于网络商品和虚拟商品的性质和特征,专栏一经购买无正当理由不予退款,不支持升级,敬请谅解。
技术与健康
躬耕技术领域多年,混过大厂,呆过创业公司。主要关注AI领域的大模型企业落地,AI辅助编程教育普及等内容,致力于AI创新和应用,推动AI赋能企业数字化转型
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
基于Qwen的Agent开发实战:完整代码+环境配置+运行步骤
本文将从零开始实现一个基于阿里云通义千问(Qwen)的智能Agent,包含环境配置、核心代码实现、运行步骤及功能扩展,确保你能快速复现并二次开发。原创 2025-12-29 11:19:32 · 406 阅读 · 0 评论 -
【系列02】端侧AI:构建与部署高效的本地化AI模型 第1章:为什么是端侧AI?
人工智能已经渗透到我们生活的方方面面,但其主流形态——云端AI,正在暴露出它的局限性。这就是为什么端侧AI(On-device AI)正迅速崛起,成为AI发展的新趋势。原创 2025-08-29 20:54:12 · 512 阅读 · 0 评论 -
【系列06】端侧AI:构建与部署高效的本地化AI模型 第5章:模型剪枝(Pruning)
结构化剪枝移除的是模型中的整个结构,比如一个完整的神经元、一个卷积核或一个通道。修剪后的模型权重矩阵仍然是稠密的,因此能够充分利用现代硬件和软件的并行计算优势,从而显著提升推理速度。非结构化剪枝是最细粒度的剪枝方法。对于需要极致压缩但对推理速度要求不高的场景,非结构化剪枝是好的选择。它就像修剪一棵树,通过移除模型中不必要的“枝叶”,让模型变得更精简、更高效,从而适应资源受限的设备。,开发者可以方便地对模型的不同层进行剪枝,并根据需求进行微调,从而在不影响太多性能的前提下,获得一个更轻量、更高效的模型。原创 2025-08-30 15:46:20 · 483 阅读 · 0 评论 -
【系列03】端侧AI:构建与部署高效的本地化AI模型 第2章:端侧AI硬件入门
要成功地将AI模型部署到端侧设备,了解底层的硬件至关重要。不同的硬件在处理AI任务时各有优劣,选择合适的硬件平台是项目成功的关键第一步。总而言之,没有“最好”的硬件平台,只有最适合你项目的平台。开发者需要根据性能、功耗、成本和生态系统等因素进行权衡,做出明智的决策。原创 2025-08-29 20:55:27 · 488 阅读 · 0 评论 -
【系列11】端侧AI:构建与部署高效的本地化AI模型 第10章:LLM端侧部署
无论是ONNX Runtime还是llama.cpp,它们都提供了将LLM部署到端侧的有效路径。通过这些工具,开发者可以构建出在离线环境下也能提供强大语言能力的AI应用,从而彻底改变用户与AI的交互体验。将大语言模型(LLM)部署到端侧设备,是实现真正普及的关键一步。然而,与传统的计算机视觉模型相比,LLM的庞大体量和计算复杂度带来了前所未有的挑战。ONNX Runtime是一个跨平台的推理引擎,能够运行ONNX格式的模型。为了克服这些挑战,研究人员和开发者主要通过对LLM的核心架构。原创 2025-08-31 20:40:49 · 792 阅读 · 0 评论 -
【系列14】端侧AI:构建与部署高效的本地化AI模型 第13章:端侧多模态AI
本章将探讨如何将不同的AI模型结合,在端侧实现多模态交互,并通过两个典型案例进行分析。例如,ASR和TTS模型可以使用NPU进行加速,而LLM的推理则可以利用GPU的并行计算能力。在端侧实现多模态AI,核心在于高效地协同多个专用模型,而不是使用一个单一的巨大模型。端侧多模态AI的未来,在于将多个小而美的AI模型集成到同一个系统中,让它们协同工作。LLM结合用户的地理位置信息,生成自然的语音指令,如“在星巴克路口左转”。:例如,ASR模型将语音转换为文本,这个文本随后作为LLM的输入。原创 2025-09-01 14:00:33 · 610 阅读 · 0 评论 -
【系列05】端侧AI:构建与部署高效的本地化AI模型 第4章:模型量化(Quantization)
量化的基本思想是减少模型中用于表示参数和激活值的比特数。在模型训练时,参数通常使用32位浮点数(FP32)进行存储,这提供了高精度,但也消耗大量的内存和计算资源。量化则将这些32位浮点数转换成低比特数表示,通常是8位整数(INT8)。量化的原理可以概括为:对浮点数范围进行校准,并将其映射到更小的整数范围内。例如,将一个FP32的权重(如-1.5到1.5)映射到INT8的范围(-128到127)。在推理过程中,模型将使用这些低精度的整数进行计算,从而大大减少了所需的计算量。量化带来的主要收益减少模型大小。原创 2025-08-29 20:57:51 · 1000 阅读 · 0 评论 -
【系列12】端侧AI:构建与部署高效的本地化AI模型 第11章:边缘设备与IoT部署
除了移动设备,AI的端侧部署更广阔的舞台是边缘设备和物联网(IoT)领域。这些设备通常算力有限、功耗敏感,但却需要实时、高效的AI能力来处理本地数据。本章将探讨如何在树莓派和英伟达Jetson等主流平台上部署AI模型,并通过案例分析其在智能摄像头和机器人中的具体应用。总而言之,边缘设备和IoT是端侧AI技术应用最广阔的蓝海。通过将AI能力下放到设备本身,我们不仅能解决成本、隐私和延迟问题,还能解锁更多创新的应用场景。原创 2025-08-31 20:42:20 · 496 阅读 · 0 评论 -
【系列13】端侧AI:构建与部署高效的本地化AI模型 第12章:性能监控与优化
在端侧部署AI模型,仅仅使其能运行是远远不够的。为了提供流畅、高效的用户体验,开发者必须对模型的性能进行深入的监控和优化。本章将介绍如何评估端侧模型的关键性能指标,使用专业工具进行瓶颈分析,并提供针对不同硬件平台的优化技巧。通过系统地监控、分析和优化,开发者可以构建出体积小、速度快、功耗低,且在端侧设备上表现卓越的AI应用。要优化模型的性能,首先需要找出瓶颈所在。专业的性能分析工具能提供详细的数据,帮助开发者定位问题。不同的硬件平台有不同的架构特点,因此优化技巧也各不相同。原创 2025-09-01 13:59:41 · 686 阅读 · 0 评论 -
LLM实践系列:利用LLM重构数据科学流程08 - 未来展望与趋势
LLM与数据科学的结合正从“代码生成”的初级阶段,走向“自主决策”和“多模态理解”的高级阶段。在未来,LLM将不仅仅是提高效率的工具,更是推动数据科学走向更高层次的驱动力。我们相信,未来的数据科学家将不再纠结于如何编写复杂的脚本,而是专注于如何提出有价值的问题,如何与智能体高效协作,以及如何将复杂的模型洞察转化为真正的商业价值。原创 2025-08-24 06:52:03 · 348 阅读 · 0 评论 -
【系列09】端侧AI:构建与部署高效的本地化AI模型 第8章:移动端部署实战 - Android
本章将通过一个简单的图像分类应用,带你了解如何在Android Studio中构建、部署和优化一个端侧AI模型。:如果设备不支持NNAPI,TFLite会自动回退到使用CPU进行推理,从而保证应用的兼容性。通过遵循上述步骤和最佳实践,你可以在Android设备上构建一个高效、稳定且用户体验良好的端侧AI应用。我们将创建一个简单的应用,使用预训练的TFLite模型来识别用户拍摄或选择的图片中的物体。:解析输出数组,找到概率最高的类别,并将其与标签文件中的类别名称进行匹配,最终显示给用户。原创 2025-08-30 15:56:34 · 482 阅读 · 0 评论 -
【系列01】端侧AI:构建与部署高效的本地化AI模型
这本小书旨在为AI开发者、嵌入式系统工程师和对端侧AI感兴趣的技术人员提供一个全面的指南,帮助他们掌握从模型训练、优化到部署的全流程。书中将重点讲解如何在资源受限的设备上,实现高性能、低功耗的AI推理,并提供丰富的代码示例和实际项目案例。原创 2025-08-29 20:53:01 · 751 阅读 · 0 评论 -
【系列15】端侧AI:构建与部署高效的本地化AI模型 第14章:联邦学习与端侧训练
联邦学习(Federated Learning)是一种去中心化的机器学习方法。它允许分散在不同设备上的数据(例如,你的手机、智能手表等)在不离开设备的情况下,协同训练一个共享模型。分发模型:云端服务器首先向所有参与的端侧设备分发一个初始模型。本地训练:每台设备都使用其本地数据对模型进行训练或微调,并计算出模型的更新参数。上传更新:设备只将这些更新参数(而不是原始数据)上传到云端服务器。聚合更新:服务器将来自所有设备的更新进行聚合,生成一个更强大的共享模型。循环迭代。原创 2025-09-01 14:01:18 · 503 阅读 · 0 评论 -
【系列10】端侧AI:构建与部署高效的本地化AI模型 第9章:移动端部署实战 - iOS
它与苹果自研的芯片(如A系列和M系列)深度集成,能够高效利用神经引擎(Neural Engine)进行硬件加速。本章将引导你如何在Xcode中部署一个模型,并讨论相关的输入输出处理与模型管理策略。通过 Core ML,开发者可以高效地在 iOS 设备上部署 AI 模型。结合合理的模型管理策略,可以确保你的应用始终使用最新、最优的模型,从而为用户提供卓越的 AI 体验。:在你的 Swift 文件中,你可以直接通过生成的类来加载模型并进行预测。在应用发布后,如果需要更新模型,你有多种管理策略可以选择。原创 2025-08-30 15:59:17 · 669 阅读 · 0 评论 -
【系列08】端侧AI:构建与部署高效的本地化AI模型 第7章:架构设计与高效算子
因此,研究人员设计了一系列轻量级、高效的网络架构,它们在保证性能的同时,极大地减少了计算开销。要将AI模型成功部署到端侧,除了对现有模型进行压缩和优化,更根本的方法是在设计之初就考虑其在资源受限环境下的运行效率。通道混洗(Channel Shuffle):在分组卷积之后,将不同组的通道进行混洗,使得信息能够在不同通道组之间流动,从而避免了信息的隔离,提高了模型性能。通过设计高效的网络架构和深入理解并优化核心算子,开发者可以从根本上解决端侧部署的挑战,构建出体积小、速度快、功耗低,且性能优越的AI模型。原创 2025-08-30 15:48:31 · 1554 阅读 · 0 评论 -
【系列07】端侧AI:构建与部署高效的本地化AI模型 第6章:知识蒸馏(Knowledge Distillation
知识蒸馏的核心思想是转移知识。它不是简单地让学生模型去学习标注好的“硬标签”(hard labels),而是让它去学习教师模型的“软标签”(soft labels)。硬标签:指数据集中明确的类别标签,例如一张图片是“猫”或“狗”。学生模型的目标是尽可能地预测出正确的硬标签。软标签:指教师模型对每个类别的预测概率分布。例如,教师模型不仅会预测图片是“猫”,还会给出“狗”的概率是0.05,“老虎”的概率是0.02。这个概率分布包含了比单一硬标签更丰富的知识,因为它体现了不同类别之间的相似性和关系。原创 2025-08-30 15:47:34 · 400 阅读 · 0 评论 -
【系列04】端侧AI:构建与部署高效的本地化AI模型 第3章:端侧AI软件栈概览
要将AI模型成功部署到端侧设备,仅仅了解硬件是不够的。开发者还需要掌握一系列软件工具和框架,它们构成了端侧AI的“软件栈”。这个软件栈负责将训练好的模型从复杂的开发环境,转换成能在资源受限设备上高效运行的格式。总而言之,端侧AI的软件栈是一个由框架、格式和硬件加速库组成的复杂生态系统。理解它们各自的角色和协作方式,是构建和部署高效端侧AI模型的关键。端侧AI的软件栈主要由以下几个核心框架构成,它们各自支持不同的模型格式和部署平台。为了在端侧设备上运行,AI模型需要被转换成特定的轻量级格式。原创 2025-08-29 20:57:10 · 1014 阅读 · 0 评论 -
基于YOLOv3-Tiny 的智能门铃的人体检测模型详细部署指导(终结)
到这里已经有了一个 PyTorch YOLOv3-Tiny 模型,并且通过 QAT 进行了训练和优化,并考虑了锚框聚类。现在,是时候将其部署到目标嵌入式设备上,通常这将涉及将其转换为格式。原创 2025-07-14 08:00:48 · 927 阅读 · 0 评论 -
【干货】Agent实战开发 提示词优化Agent
开发一个提示词优化Agent是非常具有挑战性但又充满潜力的任务。通过利用先进的生成式模型、优化算法和用户反馈机制,这个Agent将能极大提高大模型在各种任务中的表现,帮助开发者更高效地生成高质量的输出。如果你有兴趣继续深入某个部分的实现或有具体的问题,随时可以告诉我!原创 2025-07-10 11:30:43 · 1076 阅读 · 0 评论 -
基于YOLOv3-Tiny 的智能门铃的人体检测模型的实现(中)
这篇文章我们分享了模型的架构和设计,今天我们基于的 来开发这个模型。包括模型定义、数据集加载、训练循环、评估以及量化感知训练 (QAT) 的集成。原创 2025-07-13 09:45:23 · 1092 阅读 · 0 评论 -
基于YOLOv3-Tiny 的智能门铃的人体检测模型的实现(下)
承接一文,为了提升模型进性能。本文主要介绍锚框聚类锚框聚类是优化 YOLOv3-Tiny 模型性能的关键一步,因为它能确保模型学习到与数据集目标尺寸更匹配的先验框,从而提高检测精度和收敛速度。这里将添加一个用于执行锚框聚类(K-means)的 Python 脚本。通过运行这个脚本来生成适合数据集的锚框,然后会将它们更新到config.py中。原创 2025-07-14 07:56:53 · 503 阅读 · 0 评论 -
【微调】一文读懂选择Qwen做RAG应用的全过程(3)
对嵌入模型进行调优是一个非常值得投入的优化方向。它能直接提升 RAG 系统的检索精度,解决通用模型在特定领域表现不佳的问题。如果你的知识库是通用知识,那么直接使用像 BGE-M3 这样的开源嵌入模型就足够了。如果你的知识库是高度垂直的、包含大量专业术语,那么投入时间去调优嵌入模型会是一个非常明智的决定。调优后,你得到的嵌入模型会更懂你的数据,从而让 RAG 系统的整体效果更上一层楼。原创 2025-08-14 15:52:04 · 2969 阅读 · 0 评论 -
LLM实践系列:利用LLM重构数据科学流程05 - 模型选择与超参数调优的“智能副驾驶”
当你的数据集经过精心清洗,并注入了富有洞察力的新特征后,下一个挑战随之而来:如何选择最佳模型,并调整其参数以达到最佳性能?在传统流程中,这通常是一个漫长的试错过程,依赖于数据科学家的经验和直觉。本章,我们将继续利用LLM,把它当作一个经验丰富的“智能副驾驶”,帮助你高效地完成模型选择与超参数调优。原创 2025-08-24 06:48:03 · 1069 阅读 · 0 评论 -
LLM实践系列:利用LLM重构数据科学流程02
它们不再仅仅是回答问题的聊天机器人,而是理解、生成和推理的强大工具。本章将简要介绍LLM的核心能力,并着重阐述这些能力如何成为解决数据科学痛点、开启新工作流程的钥匙。通过将LLM融入数据科学的每个环节,我们可以将重心从繁琐的编程和试错中转移,投入到更具价值的问题定义和结果分析上。LLM正在成为数据科学家的“超级助手”,引领我们进入一个更加高效、智能和协作的时代。这三项能力的结合,让LLM从一个被动的信息库,变成了能够主动分析、创造和解决问题的智能伙伴。LLM的核心能力与传统数据科学的挑战形成了完美的互补。原创 2025-08-22 22:39:08 · 373 阅读 · 0 评论 -
【成本评估】一文读懂选择Qwen做RAG应用的全过程(4)
最低成本方案:使用 Qwen-7B 模型,利用开源 RAG 框架,部署在云上的 GPU 弹性实例。主要成本是云服务费用和少量的人力投入。中等投入方案:在最低成本方案的基础上,投入更多人力优化数据分块和嵌入模型,并使用 Kubernetes 等工具进行生产部署。成本增加在人力和更稳定的云服务。最高投入方案:拥有专业团队,自建 GPU 集群,并对嵌入模型和 Qwen 模型进行深度微调。这种方案适合有长期规划和充足预算的大型项目。在做决策时,请结合你的预算、团队能力和产品上线时间表。原创 2025-08-14 15:53:51 · 992 阅读 · 0 评论 -
LLM实践系列:利用LLM重构数据科学流程07 - 工程化实践与挑战
在前面文章中,我们已经看到了LLM如何在单一项目中作为“智能助手”的巨大潜力。但要将这种能力从一次性的实验,转化为可规模化、可重复的生产力,就必须将LLM集成到**MLOps(机器学习运维)**的工程化流程中。这不仅关乎效率,更关乎项目的可靠性、可维护性和安全性。本章,我们将探讨如何将LLM驱动的数据科学流程融入MLOps管道,并直面在实践中可能遇到的挑战,提供相应的应对策略。原创 2025-08-24 06:51:20 · 493 阅读 · 0 评论 -
【微调】一文读懂选择Qwen做RAG应用的全过程(2)
这种情况下,是否选择对 Qwen模型,进行微调。:这取决于你的具体情况,但通常来说,在 RAG 架构中,微调 Qwen 模型并非首要任务,但可以作为后续优化的一个手段。原创 2025-08-14 15:49:46 · 267 阅读 · 0 评论 -
LLM实践系列:利用LLM重构数据科学流程04 - 智能特征工程
它不仅可以作为特征构思的灵感来源,还可以作为代码生成的引擎,将你的想法迅速变为现实。构思出新特征后,你需要手动编写复杂的Python代码来计算这些值,例如处理日期、分组聚合等,这不仅耗时,还容易出错。LLM的回答不仅提供了特征名称,还详细解释了其背后的业务逻辑,这极大地加速了从业务理解到特征构思的转化过程。项目,展示如何利用LLM,将特征工程从一门依赖人工的“艺术”,转变为一个高效、可自动化的过程。这正是LLM重塑数据科学流程的强大力量,它将原本复杂的、依赖经验的特征工程,变成了一个。原创 2025-08-22 22:41:25 · 1292 阅读 · 0 评论 -
LLM实践系列:利用LLM重构数据科学流程03- LLM驱动的数据探索与清洗
在传统的数据科学流程中,数据探索与清洗是耗时最长、最依赖人工的环节。通过这一系列交互,LLM成为了一个高效的协作伙伴,不仅提供了解决方案,还帮助你验证了结果。你不需要记住复杂的API语法,只需要用最自然的语言告诉LLM你的需求。在执行完清洗代码后,你需要再次运行 df.info() 和 df.isnull().sum() 来验证结果。的电商数据集为例,演示如何利用LLM作为你的“智能数据管家”,高效地完成数据探索与清洗。LLM的分析不仅全面,而且充满了“人情味”,它知道数据科学家通常会遇到的问题。原创 2025-08-22 22:40:13 · 850 阅读 · 0 评论 -
LLM实践系列:利用LLM重构数据科学流程01
在人工智能的浪潮中,数据科学已成为推动业务增长的核心引擎。然而,在这个看似光鲜的领域背后,数据科学家们正面临着一系列根深蒂固的挑战。在传统流程中,从技术模型到业务洞察的转化,需要大量的人工解读和沟通,这道鸿沟是横在数据科学与业务应用之间的一大障碍。这个过程高度依赖人工,需要耗费大量时间编写和调试代码,而这些工作往往是重复性的。数据科学项目的第一步,往往也是最漫长的一步。在特征准备好之后,数据科学家面临另一个挑战:如何选择最佳的模型,并找到最优的超参数组合?的瓶颈,这直接制约了模型性能的上限。原创 2025-08-22 22:37:05 · 580 阅读 · 0 评论 -
一文读懂选择Qwen做RAG应用的全过程(1)
Qwen 系列模型因其在中文领域的出色表现和开源开放的特性,成为了 RAG 架构中一个非常实用的选择。原创 2025-08-14 15:44:25 · 564 阅读 · 0 评论 -
LLM实践系列:利用LLM重构数据科学流程06 - 从“黑盒”到“透明”:用LLM增强模型可解释性
综上所述,模型的核心发现与我们的直觉相符:客户的近期活跃度和历史消费是预测其流失的最重要指标。我们建议业务团队优先关注那些长时间未消费或历史消费金额较低的客户群体。这些洞察为我们提供了更精准的客户挽留策略,有望显著降低流失率,提升客户生命周期价值。LLM可以快速生成报告的结构和内容,让你只需进行简单的校对和润色,就能得到一份专业的文档。这极大地提高了工作效率,也让数据科学的价值更容易被业务方理解和接受。原创 2025-08-24 06:49:09 · 527 阅读 · 0 评论 -
《大模型 Agent 应用实战指南》第13章:Agent 的未来趋势与伦理考量
Agent 的未来将走向。原创 2025-06-30 09:05:38 · 435 阅读 · 5 评论 -
《大模型 Agent 应用实战指南》第12章:Agent 运营与持续优化
数据闭环与反馈是 Agent 持续优化的生命线。通过。原创 2025-06-30 09:05:16 · 219 阅读 · 0 评论 -
《大模型 Agent 应用实战指南》第11章:Agent 持续监控与运维
实时监控是 Agent 系统运维的基石,它不仅覆盖传统的系统健康和 API 性能,更深入到 Agent 独特的 LLM 调用、Token 费用和用户交互等层面。通过全面监控。原创 2025-06-30 09:04:56 · 146 阅读 · 0 评论 -
《大模型 Agent 应用实战指南》第10章:Agent 应用部署与扩容
Agent 应用的部署是其走向生产的关键。原创 2025-06-30 09:03:53 · 234 阅读 · 0 评论 -
《大模型 Agent 应用实战指南》 第9章:Agent 结果可信性验证与幻觉规避
证据链回溯是构建可信赖、可解释 Agent 系统的基石。通过系统地记录 Agent 的。原创 2025-06-30 09:03:25 · 866 阅读 · 0 评论 -
《大模型 Agent 应用实战指南》第8章:Agent 测试策略与评估
单元测试是对软件中最小可测试单元(如函数、方法、类)进行的独立测试,旨在验证其功能是否按预期工作。在 Agent 语境下,这些“单元”通常是 Agent 内部的各个组件。原创 2025-06-30 09:03:02 · 235 阅读 · 0 评论 -
《大模型 Agent 应用实战指南》第7章:多 Agent 协作与复杂流程
多 Agent 架构通过将复杂问题分解给专业的子 Agent 来处理,极大地增强了 Agent 系统的。原创 2025-06-30 09:02:40 · 285 阅读 · 0 评论 -
《大模型 Agent 应用实战指南》第5章:(Tools)工具集成与管理
大模型 Agent 的强大之处,在于它不仅仅能“说”和“思考”,还能**“做”。这种“做”的能力,就是通过工具(Tools)**来实现的。工具是 Agent 与外部世界交互的接口,它把 Agent 的智能决策转化为实际行动,比如查询数据库、发送邮件、调用第三方服务等。要让 Agent 能够使用这些工具,我们首先需要对现有系统中的各种功能进行定义和封装。这就像给 Agent 准备一个工具箱,每个工具都有明确的名称、功能和使用说明。在 Agent 的语境中,一个“工具”通常是一个特定功能的封装。原创 2025-06-27 08:40:43 · 764 阅读 · 0 评论
分享