- 博客(515)
- 资源 (16)
- 收藏
- 关注
原创 基于《多Agent架构和应用指南》打造数字员工的分享
基于《多Agent架构和应用指南》,今天分享两个数字员工的实践整个技术栈是LangGraph1.0 +GLM 4。
2026-01-09 12:00:45
87
原创 备战大模型应用开发面试?这份题库直接参考!
想冲刺大模型应用开发岗位,却苦于不知道面试重点、无从下手准备?别慌!我已系统收集整理了一份大模型应用开发面试题库,精准覆盖核心考点。这份题库聚焦大模型应用开发全流程,涵盖提示词工程、大模型选型与适配、应用场景落地、技术难点突破等关键模块,既有基础概念辨析,也有实战场景应用题,贴合企业真实面试考察方向。无论你是刚入门的新手,还是想进阶的资深开发者,都能通过这份题库明确备考重点、查漏补缺。直接参考这份题库梳理知识点、模拟答题,帮你高效备战,轻松应对面试挑战!
2026-01-09 11:59:49
672
原创 多Agent协作快速落地清单:3种主流架构+框架选型+避坑要点
这份清单专为快速落地设计,覆盖场景下最常用的3种架构,每个架构包含五大部分,直接照着执行即可完成部署。
2026-01-08 13:59:35
757
原创 破局之道:AI驱动软件工程(AI-Driven Software Engineering, ADSE)的4个核心方法论
前阵子和一个几十号人的研发团队聊AI辅助编程的实践,发现他们踩了个很典型的坑:全团队都在用AI写代码,效率看似提上去了,但上线后bug率飙升,后续维护更是头大——不同人用AI生成的代码风格混乱,模块之间衔接全是漏洞,积累的技术债比之前纯人工开发还多。这应该是很多团队用AI做软件工程的通病:以为把需求扔给AI,就能躺着出成果,却忽略了AI驱动开发的核心逻辑和传统开发完全不同。思考问题:你所在的团队用AI写代码时,最头疼的是技术债堆积,还是生成的代码不健壮、难维护.
2026-01-08 12:09:19
95
原创 从Markdown讲义自动生成教学视频的完整解决方案
获取密钥:https://cloud.baidu.com/product/speech/tts。macOS 会自动使用系统字体,Windows/Linux 可能需要安装相应字体。百度AI有免费配额限制,超额后可使用。如需使用百度AI语音合成,请修改。如对本方案有兴趣,欢迎关注私信.处理大型课程时,可以调整。
2026-01-06 16:02:55
539
原创 一个基于 FastAPI 开发的轻量级虚拟资源电商系统, 线下支付 + 后台确认机制
一个基于 FastAPI 开发的轻量级虚拟资源电商系统,支持线下支付确认和后台订单管理。
2026-01-06 14:00:24
724
原创 本地部署Qwen模型:生产级Agent服务封装(下)
该服务完全遵循生产级规范,可直接部署到服务器/容器平台,支持高并发、可监控、易扩展,同时保留了Agent的核心能力(工具调用、多轮对话)。
2025-12-31 21:54:38
56
1
原创 本地部署Qwen模型:生产级Agent服务封装(上)
"""计算器工具(生产级,增加安全校验)""""""校验表达式安全性"""# 过滤非法字符from utils . logger import logger from config . settings import settings class CalculatorTool : """计算器工具(生产级,增加安全校验)""" def __init__(self) : self . allowed_operators = {
2025-12-31 21:53:50
374
原创 Claude Code极简指南:一文学会安装和使用
核心结论:先配齐Node.js≥18、Anthropic授权/API Key,全局安装Claude Code,配置环境变量,进入项目目录启动并授权,即可开始实战。
2025-12-30 10:31:37
366
原创 step-by-step树莓派 4B/5部署端模型
树莓派部署 llama.cpp 的核心是「适配资源」:用 64 位系统+小参数量化模型+针对性编译优化,就能实现本地推理。推荐新手从 Phi-3-mini 1.3B 模型开始,门槛最低、速度最快,适合验证功能;若追求更好效果,再尝试 7B 模型。树莓派的优势是低功耗、全离线,适合做隐私保护的边缘 AI 设备(如本地语音助手、小型问答机器人)。附录适合树莓派部署的量化模型,核心要满足参数量1 - 8B、量化后体积小,且适配llama.cpp支持的GGUF格式,同时能适配树莓派4B/5的硬件资源。
2025-12-30 09:38:53
691
原创 基于Qwen的Agent的生产级封装及部署方案
一文中,我们提到了本地化部署模型。而要把它应用于生产实践,还需要从整个系统的架构及运行部署,监控等多个方面进行重构和调整,下面给出的是生产级的技术方案,如果你这正好有这方面的需求,可以在优快云发消息给我。
2025-12-29 12:14:26
114
原创 基于Qwen的Agent开发实战:完整代码+环境配置+运行步骤
本文将从零开始实现一个基于阿里云通义千问(Qwen)的智能Agent,包含环境配置、核心代码实现、运行步骤及功能扩展,确保你能快速复现并二次开发。
2025-12-29 11:19:32
613
原创 分享:Docling:本地自动注释 PDF 图像
Docling 运行本地视觉语言模型(Granite Vision、SmolVLM),自动为文档中的每张图片生成描述性注释,同时保护数据隐私。您可以使用 Gemini 或 ChatGPT 等云 API,但这意味大规模应用会产生 API 成本,并且您的文档会离开您的基础设施。PDF 文件中的图表、示意图和图形等图像无法被搜索和分析。手动为数百个图形编写描述是不切实际的。灵活性:可自定义提示,支持任何 HuggingFace 模型。隐私保护:数据保留在本地,可离线使用。费用:无每张图片 API 费用。
2025-11-29 20:45:02
613
原创 【经验分享】在旧版本macOS 上成功编译 llama-server的方法。
这个方法使用了 CMake,并针对 macOS 链接器的特殊要求进行了配置。加速,并绕过 macOS 链接器关于动态库版本号格式的错误。符号找不到和后来的链接器版本号格式错误。使用此编译出的程序,即可解决最初的。编译成功后,你需要的。
2025-11-27 15:52:54
659
原创 资源推荐一览:Fasttext 语言识别速度提升 80 倍,准确率达 95%
这是一个命令行工具,用于对 Jupyter Notebook 中的 Python 代码运行代码检查器和格式化程序。其特点包括用于上下文卸载的虚拟文件系统、配备专用工具集的专用子代理,以及适用于现实世界研究和分析任务的复杂代理架构。用于评估大型语言模型(LLM)或使用LLM构建的系统的框架,具有现有的评估注册表和编写自定义评估的能力。Shiny for Python 是用 Python 构建快速、美观的 Web 应用程序的最佳方式。该Python库使用LLMs执行数据清洗任务,用于分类、转换和管理。
2025-11-27 13:12:21
301
原创 《从头开始构建大型语言模型(LLMs)》的作者关于如何阅读和充分利用这类技术书籍的建议
如果我得到的结果与书中的不同,我会查看本书的 GitHub 仓库并尝试那里的代码。如果我仍然找不出原因,询问作者也不是一个坏主意(通过书籍论坛、公共 GitHub 仓库的问题或讨论,以及作为最后的手段,电子邮件)。这可能涉及使用章节中的主要概念,但有时也会涉及我在学习过程中学到的小知识点,例如,即使是像在我的项目中。如果某个主题总体上非常熟悉或容易,而我阅读这本书的主要目的是为了获取后续章节中的一些信息,那么跳读(skim)一个章节是可以接受的(以免浪费我的时间)。,这些书是关于从头开始构建 LLM 的。
2025-11-26 21:56:55
324
翻译 使用 Delta Sharing 进行直接数据共享 - 简介:我们在 Zalando 赋能合作伙伴的旅程
试想一下:您是 Zalando 的合作伙伴,想要了解您的产品在欧洲最大的时尚平台之一上的表现。您需要洞察数据,以便制定有关库存、定价和产品组合规划的战略决策。然而,您并没有获得所需的数据,而是发现自己不得不疲于应对多个系统、格式和繁琐的手动流程,才能拼凑出一个清晰的业务绩效概览。这就是我们的合作伙伴面临的现实,也是我们不能忽视的问题。在 Zalando 数据基础架构部门的合作伙伴技术部门,我们通过三种不同的商业模式与合作伙伴共享数据和见解,以指导他们的业务发展:这些合作关系都会产生宝贵的数据,但如何以有用的
2025-11-26 15:15:33
43
原创 微信小程序云开发实践:共享环境与LLM整合经验
采用微信小程序云开发模式,成功实现两个小程序在共享云环境下的快速上线。该模式特别适合中小型项目快速验证,后续将持续优化大模型与云开发的深度结合方案。
2025-11-25 23:18:26
388
原创 基于mcp+deepseek+fastmcp实现一个天气查询系统
这是一个非常具体且前沿的技术组合,是当前 AI Agent 领域中非常先进的实践模式,它实现了的能力与的安全、标准化集成。
2025-11-24 21:40:44
96
原创 从“硬件盒子”到“生态帝国”:华为的生死转型与未来挑战
在公众认知中,华为的形象是多面的:它是5G技术的全球领导者,是曾与苹果、三星掰手腕的手机巨头,也是被推上地缘政治风口的中国科技象征。然而,一个更深层次、更根本的转型正在华为内部发生——它正倾尽全力,试图将自己从一家卓越的“硬件工程”公司,重塑为一个软硬一体、万物互联的“平台生态”公司。劣势:其流程的刚性可能扼杀早期、探索性的技术创新,导致在追求“从1到N”的极致时,弱化了“从0到1”的颠覆能力。天文数字的投入:构建生态是一场耗时、烧钱的“长征”,其研发、推广和开发者补贴的规模,远超硬件时代。
2025-10-14 09:17:06
540
原创 当前数字化转型的“势弱”,更像是一次市场出清和价值回归
当泛化的“数字化”热潮退去,我们才能更清晰地看到,像华为这样在操作系统、AI根技术、云计算底座等领域进行战略性投入的公司,其转型的深度和韧性所在。3. 浪潮退去后的裸泳:当经济进入调整期,企业客户发现这些“数字化项目”并未带来预期的根本性增长,便开始砍掉这些“可有可无”的开支。1. 风口上的崛起:乘着“数字化转型”的东风,它们以“赋能者”的身份出现,为传统企业(如银行、政府、零售业)提供大数据、AI中台、精准营销等解决方案。真正的转型,从来不是一次性的项目,而是一场持续的、深刻的组织能力和商业模式的进化。
2025-10-14 09:14:53
299
原创 【专栏升级】大模型应用实战并收录RAG专题,Agent专题,LLM重构数据科学流程专题,端侧AI专题,累计63篇文章
大模型应用实战涵盖微调技术,通过调整预训练模型参数使其适应特定任务需求,提升模型在垂直领域的表现。部署优化章节涉及模型量化、剪枝等压缩技术,以及推理加速框架应用,确保生产环境下的性能与成本平衡。系统讲解检索增强生成技术架构,包括向量数据库选型、语义检索优化及生成结果校准方法,解决大模型事实性错误问题。部分展示大模型如何变革传统数据分析范式,涵盖自然语言交互式分析、自动化特征工程及模型解释性增强。聚焦移动端与边缘设备部署方案,包括轻量化模型转换、设备端推理框架选择及隐私保护技术实现。
2025-09-02 20:39:44
421
原创 【系列15】端侧AI:构建与部署高效的本地化AI模型 第14章:联邦学习与端侧训练
联邦学习(Federated Learning)是一种去中心化的机器学习方法。它允许分散在不同设备上的数据(例如,你的手机、智能手表等)在不离开设备的情况下,协同训练一个共享模型。分发模型:云端服务器首先向所有参与的端侧设备分发一个初始模型。本地训练:每台设备都使用其本地数据对模型进行训练或微调,并计算出模型的更新参数。上传更新:设备只将这些更新参数(而不是原始数据)上传到云端服务器。聚合更新:服务器将来自所有设备的更新进行聚合,生成一个更强大的共享模型。循环迭代。
2025-09-01 14:01:18
511
原创 【系列14】端侧AI:构建与部署高效的本地化AI模型 第13章:端侧多模态AI
本章将探讨如何将不同的AI模型结合,在端侧实现多模态交互,并通过两个典型案例进行分析。例如,ASR和TTS模型可以使用NPU进行加速,而LLM的推理则可以利用GPU的并行计算能力。在端侧实现多模态AI,核心在于高效地协同多个专用模型,而不是使用一个单一的巨大模型。端侧多模态AI的未来,在于将多个小而美的AI模型集成到同一个系统中,让它们协同工作。LLM结合用户的地理位置信息,生成自然的语音指令,如“在星巴克路口左转”。:例如,ASR模型将语音转换为文本,这个文本随后作为LLM的输入。
2025-09-01 14:00:33
613
原创 【系列13】端侧AI:构建与部署高效的本地化AI模型 第12章:性能监控与优化
在端侧部署AI模型,仅仅使其能运行是远远不够的。为了提供流畅、高效的用户体验,开发者必须对模型的性能进行深入的监控和优化。本章将介绍如何评估端侧模型的关键性能指标,使用专业工具进行瓶颈分析,并提供针对不同硬件平台的优化技巧。通过系统地监控、分析和优化,开发者可以构建出体积小、速度快、功耗低,且在端侧设备上表现卓越的AI应用。要优化模型的性能,首先需要找出瓶颈所在。专业的性能分析工具能提供详细的数据,帮助开发者定位问题。不同的硬件平台有不同的架构特点,因此优化技巧也各不相同。
2025-09-01 13:59:41
692
原创 AI 炒作与应用现实:2025 年架构师应对之道
竞争对手展示着华丽的演示。如果你在最初的架构计划中没有考虑到这些,你的 AI 功能可能成功上线,但会成为一个难以维护的负担。现实是,糟糕的 AI 实施实际上会伤害你的产品,它会增加显著的复杂性,减慢性能,并给你的应用引入不可预测的行为。你确保当 AI 出现在你的产品中时,它是因为对公司的业务价值和目标有意义,而不仅仅是幻灯片上的一行字。架构师工作中一个最困难的部分是,在不扼杀创造力的情况下,回绝不现实的想法,而创造力正是产品伟大的原因。在 2025 年,讨论的是你是否能维持对 AI 的投资。
2025-08-31 20:47:03
696
原创 【系列12】端侧AI:构建与部署高效的本地化AI模型 第11章:边缘设备与IoT部署
除了移动设备,AI的端侧部署更广阔的舞台是边缘设备和物联网(IoT)领域。这些设备通常算力有限、功耗敏感,但却需要实时、高效的AI能力来处理本地数据。本章将探讨如何在树莓派和英伟达Jetson等主流平台上部署AI模型,并通过案例分析其在智能摄像头和机器人中的具体应用。总而言之,边缘设备和IoT是端侧AI技术应用最广阔的蓝海。通过将AI能力下放到设备本身,我们不仅能解决成本、隐私和延迟问题,还能解锁更多创新的应用场景。
2025-08-31 20:42:20
507
原创 【系列11】端侧AI:构建与部署高效的本地化AI模型 第10章:LLM端侧部署
无论是ONNX Runtime还是llama.cpp,它们都提供了将LLM部署到端侧的有效路径。通过这些工具,开发者可以构建出在离线环境下也能提供强大语言能力的AI应用,从而彻底改变用户与AI的交互体验。将大语言模型(LLM)部署到端侧设备,是实现真正普及的关键一步。然而,与传统的计算机视觉模型相比,LLM的庞大体量和计算复杂度带来了前所未有的挑战。ONNX Runtime是一个跨平台的推理引擎,能够运行ONNX格式的模型。为了克服这些挑战,研究人员和开发者主要通过对LLM的核心架构。
2025-08-31 20:40:49
799
原创 【系列10】端侧AI:构建与部署高效的本地化AI模型 第9章:移动端部署实战 - iOS
它与苹果自研的芯片(如A系列和M系列)深度集成,能够高效利用神经引擎(Neural Engine)进行硬件加速。本章将引导你如何在Xcode中部署一个模型,并讨论相关的输入输出处理与模型管理策略。通过 Core ML,开发者可以高效地在 iOS 设备上部署 AI 模型。结合合理的模型管理策略,可以确保你的应用始终使用最新、最优的模型,从而为用户提供卓越的 AI 体验。:在你的 Swift 文件中,你可以直接通过生成的类来加载模型并进行预测。在应用发布后,如果需要更新模型,你有多种管理策略可以选择。
2025-08-30 15:59:17
679
原创 【系列09】端侧AI:构建与部署高效的本地化AI模型 第8章:移动端部署实战 - Android
本章将通过一个简单的图像分类应用,带你了解如何在Android Studio中构建、部署和优化一个端侧AI模型。:如果设备不支持NNAPI,TFLite会自动回退到使用CPU进行推理,从而保证应用的兼容性。通过遵循上述步骤和最佳实践,你可以在Android设备上构建一个高效、稳定且用户体验良好的端侧AI应用。我们将创建一个简单的应用,使用预训练的TFLite模型来识别用户拍摄或选择的图片中的物体。:解析输出数组,找到概率最高的类别,并将其与标签文件中的类别名称进行匹配,最终显示给用户。
2025-08-30 15:56:34
489
原创 【系列08】端侧AI:构建与部署高效的本地化AI模型 第7章:架构设计与高效算子
因此,研究人员设计了一系列轻量级、高效的网络架构,它们在保证性能的同时,极大地减少了计算开销。要将AI模型成功部署到端侧,除了对现有模型进行压缩和优化,更根本的方法是在设计之初就考虑其在资源受限环境下的运行效率。通道混洗(Channel Shuffle):在分组卷积之后,将不同组的通道进行混洗,使得信息能够在不同通道组之间流动,从而避免了信息的隔离,提高了模型性能。通过设计高效的网络架构和深入理解并优化核心算子,开发者可以从根本上解决端侧部署的挑战,构建出体积小、速度快、功耗低,且性能优越的AI模型。
2025-08-30 15:48:31
1558
原创 【系列07】端侧AI:构建与部署高效的本地化AI模型 第6章:知识蒸馏(Knowledge Distillation
知识蒸馏的核心思想是转移知识。它不是简单地让学生模型去学习标注好的“硬标签”(hard labels),而是让它去学习教师模型的“软标签”(soft labels)。硬标签:指数据集中明确的类别标签,例如一张图片是“猫”或“狗”。学生模型的目标是尽可能地预测出正确的硬标签。软标签:指教师模型对每个类别的预测概率分布。例如,教师模型不仅会预测图片是“猫”,还会给出“狗”的概率是0.05,“老虎”的概率是0.02。这个概率分布包含了比单一硬标签更丰富的知识,因为它体现了不同类别之间的相似性和关系。
2025-08-30 15:47:34
404
原创 【系列06】端侧AI:构建与部署高效的本地化AI模型 第5章:模型剪枝(Pruning)
结构化剪枝移除的是模型中的整个结构,比如一个完整的神经元、一个卷积核或一个通道。修剪后的模型权重矩阵仍然是稠密的,因此能够充分利用现代硬件和软件的并行计算优势,从而显著提升推理速度。非结构化剪枝是最细粒度的剪枝方法。对于需要极致压缩但对推理速度要求不高的场景,非结构化剪枝是好的选择。它就像修剪一棵树,通过移除模型中不必要的“枝叶”,让模型变得更精简、更高效,从而适应资源受限的设备。,开发者可以方便地对模型的不同层进行剪枝,并根据需求进行微调,从而在不影响太多性能的前提下,获得一个更轻量、更高效的模型。
2025-08-30 15:46:20
498
原创 【系列05】端侧AI:构建与部署高效的本地化AI模型 第4章:模型量化(Quantization)
量化的基本思想是减少模型中用于表示参数和激活值的比特数。在模型训练时,参数通常使用32位浮点数(FP32)进行存储,这提供了高精度,但也消耗大量的内存和计算资源。量化则将这些32位浮点数转换成低比特数表示,通常是8位整数(INT8)。量化的原理可以概括为:对浮点数范围进行校准,并将其映射到更小的整数范围内。例如,将一个FP32的权重(如-1.5到1.5)映射到INT8的范围(-128到127)。在推理过程中,模型将使用这些低精度的整数进行计算,从而大大减少了所需的计算量。量化带来的主要收益减少模型大小。
2025-08-29 20:57:51
1005
原创 【系列04】端侧AI:构建与部署高效的本地化AI模型 第3章:端侧AI软件栈概览
要将AI模型成功部署到端侧设备,仅仅了解硬件是不够的。开发者还需要掌握一系列软件工具和框架,它们构成了端侧AI的“软件栈”。这个软件栈负责将训练好的模型从复杂的开发环境,转换成能在资源受限设备上高效运行的格式。总而言之,端侧AI的软件栈是一个由框架、格式和硬件加速库组成的复杂生态系统。理解它们各自的角色和协作方式,是构建和部署高效端侧AI模型的关键。端侧AI的软件栈主要由以下几个核心框架构成,它们各自支持不同的模型格式和部署平台。为了在端侧设备上运行,AI模型需要被转换成特定的轻量级格式。
2025-08-29 20:57:10
1026
原创 【系列03】端侧AI:构建与部署高效的本地化AI模型 第2章:端侧AI硬件入门
要成功地将AI模型部署到端侧设备,了解底层的硬件至关重要。不同的硬件在处理AI任务时各有优劣,选择合适的硬件平台是项目成功的关键第一步。总而言之,没有“最好”的硬件平台,只有最适合你项目的平台。开发者需要根据性能、功耗、成本和生态系统等因素进行权衡,做出明智的决策。
2025-08-29 20:55:27
500
原创 【系列02】端侧AI:构建与部署高效的本地化AI模型 第1章:为什么是端侧AI?
人工智能已经渗透到我们生活的方方面面,但其主流形态——云端AI,正在暴露出它的局限性。这就是为什么端侧AI(On-device AI)正迅速崛起,成为AI发展的新趋势。
2025-08-29 20:54:12
528
原创 【系列01】端侧AI:构建与部署高效的本地化AI模型
这本小书旨在为AI开发者、嵌入式系统工程师和对端侧AI感兴趣的技术人员提供一个全面的指南,帮助他们掌握从模型训练、优化到部署的全流程。书中将重点讲解如何在资源受限的设备上,实现高性能、低功耗的AI推理,并提供丰富的代码示例和实际项目案例。
2025-08-29 20:53:01
762
原创 LLM实践系列:利用LLM重构数据科学流程08 - 未来展望与趋势
LLM与数据科学的结合正从“代码生成”的初级阶段,走向“自主决策”和“多模态理解”的高级阶段。在未来,LLM将不仅仅是提高效率的工具,更是推动数据科学走向更高层次的驱动力。我们相信,未来的数据科学家将不再纠结于如何编写复杂的脚本,而是专注于如何提出有价值的问题,如何与智能体高效协作,以及如何将复杂的模型洞察转化为真正的商业价值。
2025-08-24 06:52:03
349
源码:Mini Shop - 虚拟资源电商系统 一个基于 FastAPI 开发的轻量级虚拟资源电商系统,支持线下支付确认和后台订单管理
2026-01-06
CodeCut 数据科学工具库中Python数据处理与机器学习技术的应用
2025-09-01
Excel【办公软件应用】Excel 2016快速入门指南:基础功能介绍与高效办公技巧汇总了文档的主要内容
2025-07-05
大模型实战系列-08 开发一个基于 MCP 协议的多 Agent 协作系统
2025-07-03
鸿蒙分析报告,大模型 也许成为鸿蒙跨越应用“鸿沟”的契机
2025-04-12
这份报告对 YC 2023 年和 2024 年队列中的 417 家人工智能公司进行了广泛的分析
2024-08-17
世界各地很多服务提供商采纳了TM论坛的TOM2.1业务架构模式,TOM已经成为服务提供商运营管理的工业标准。但是。。。。
2022-02-11
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅