- 博客(90)
- 收藏
- 关注
原创 编译器优化——LLVM IR,零基础入门
本文为具备C++编程经验的开发者深入解析LLVM IR这一强大的编译器中间表示。我们将从LLVM IR在编译流程中的核心作用入手,结合具体IR代码样本,系统剖析其模块级指令、严谨的类型系统以及核心指令集,如内存操作(alloca, load, store)、地址计算(getelementptr)和控制流(br)。文章重点阐述LLVM IR如何通过静态单赋值(SSA)范式来表示代码,并探讨元数据如TBAA及mem2reg优化如何影响最终机器码。
2025-07-13 23:09:45
790
原创 高级LoRA:面向垂直领域LLM的实战微调指南——LoRA合并、续训、堆叠,Checkpoint管理
本文深入探讨Hugging Face生态中深度学习模型的保存、恢复与高效管理策略。从Trainer全量检查点(包含模型、优化器、调度器及RNG状态)到PEFT LoRA轻量级适配器的解剖,详细解析了保存机制。我们探讨了如何利用TrainingArguments进行检查点管理,实现训练断点续训,阐述了LoRA模型的持续训练、合并再训练、多LoRA堆叠推理及LoRA间合并等高级技巧。
2025-07-09 23:02:07
724
原创 超长上下文(32k-1024k)大模型微调实用开发者指南
本文为开发者提供一套详尽实用的超长上下文大语言模型(LLM)微调指南。针对传统Transformer模型在处理长序列时计算开销呈二次方增长的瓶颈,本指南深入探讨了多项前沿开源解决方案。文章详细介绍了Unsloth、Axolotl等高效微调框架,以及LongLoRA、LongQLoRA等专长长上下文微调的技术。此外,还探索了Mamba、RWKV等原生支持超长上下文的新型架构,并强调了FlashAttention-2、Ring Attention等核心优化库的重要性。
2025-07-08 19:09:51
675
原创 大语言模型(LLM)课程学习(Curriculum Learning)、数据课程(data curriculum)指南:从原理到实践
本文深入探讨大语言模型(LLM)训练中的数据课程设计。不同于传统随机打乱数据,文章提出一个指导性的、可操作的数据排序框架,旨在优化LLM训练计算、加速收敛并最大化最终模型性能。通过解构顶级模型的训练配方,报告详细阐述了三阶段预训练计划(基础、注入、精炼)和多阶段后训练课程(SFT、DPO/RLHF),并引入语言学、信息论及模型感知等多种数据难度指标。这种战略性数据调度不仅提升训练效率,更实现从基础语言流畅性到专家级推理能力的飞跃,为技术领导者提供了构建高性能LLM的实战手册。
2025-07-07 15:44:09
815
原创 【硬核数学 · LLM篇】3.1 Transformer之心:自注意力机制的线性代数解构《从零构建机器学习、深度学习到LLM的数学认知》
本文深入剖析大型语言模型(LLM)核心——自注意力机制的数学原理。从RNN的局限性出发,阐述Transformer如何通过QKV(查询、键、值)框架,实现对序列中任意元素间关系的直接建模。文章详细拆解自注意力机制的线性代数实现:从词嵌入到QKV矩阵生成,再到注意力分数计算、缩放、Softmax归一化及加权求和,揭示其完全基于矩阵乘法的“暴力美学”。此外,还探讨了多头注意力如何从多维度捕捉关系,以及KV缓存如何通过线性代数优化,显著提升LLM推理速度,并简述了模型并行化和低秩近似等LLM规模化挑战的工程解决方
2025-06-30 17:35:50
946
原创 【硬核数学 · 深度学习】2.8 超越网格与离散:图神经网络与神经ODE的数学探索《从零构建机器学习、深度学习到LLM的数学认知》
本文深入探讨深度学习如何超越传统网格数据,迈向复杂的关系型结构和连续模型。首先,我们介绍图神经网络(GNN),揭示其如何利用图论和消息传递机制,有效处理社交网络、分子结构等图数据,实现对节点间关系的建模。接着,文章挑战神经网络离散层堆叠的固有观念,引入神经普通微分方程(Neural ODE)。这种创新将深度网络视为连续演化的动态系统,通过ODE求解器实现前向传播,并利用伴随灵敏度方法在反向传播时实现革命性的常数内存消耗。理解GNN和Neural ODE的数学原理与工程优势,对于构建更强大、更高效的AI模型至
2025-06-30 14:13:57
1064
原创 【硬核数学】2.7 理论与现实的鸿沟:深度学习的数值稳定性挑战《从零构建机器学习、深度学习到LLM的数学认知》
深度学习在理论上强大,但在实际计算中面临数值稳定性挑战。本文深入探讨计算机浮点数表示的有限性如何导致舍入误差、上溢和下溢,进而引发梯度爆炸/消失等问题。我们将解析灾难性抵消等数值不稳定现象,并详细介绍混合精度训练、Log-Sum-Exp技巧、梯度裁剪和批量归一化等关键工程技术。理解这些技术对于构建健壮、高效的深度学习模型,特别是训练大规模语言模型(LLM)至关重要,它弥合了数学理论与现实计算之间的鸿沟,确保了复杂AI系统的稳定运行。
2025-06-30 13:53:37
1242
原创 【硬核数学】2.6 神经网络“超能力”:函数逼近理论与激活函数《从零构建机器学习、深度学习到LLM的数学认知》
神经网络为何能学习并逼近复杂函数?本文深入剖析其“超能力”的数学根源。我们将详细解读万能逼近定理(UAT),阐明一个单隐藏层神经网络如何通过非线性激活函数(如ReLU)以任意精度逼近任何连续函数。文章探讨了Sigmoid、Tanh和ReLU等激活函数的特性,重点分析了它们在解决梯度消失问题中的作用。此外,还将揭示深度学习中“深度”的真正力量,即通过层级特征表示实现比浅层网络更高的参数效率和更强的泛化能力。理解这些核心理论,是构建和优化机器学习及大型语言模型(LLM)的关键。
2025-06-30 13:33:41
748
原创 【硬核数学】2.5 “价值标尺”-损失函数:信息论如何设计深度学习的损失函数《从零构建机器学习、深度学习到LLM的数学认知》
损失函数是深度学习模型训练的核心,它量化了模型预测与真实值之间的差距,并引导模型优化。本文深入探讨了信息论如何为深度学习设计这些关键的“价值标尺”。首先,我们引入KL散度,它作为衡量两个概率分布之间“距离”的理论工具,揭示了其不对称性在模型学习行为中的深刻含义。接着,文章详细阐述了交叉熵如何从KL散度推导而来,并成为分类任务(如LLM的序列预测)的标准损失函数,与最大似然估计殊途同归。最后,探讨了互信息在无监督表示学习中的应用,特别是对比学习如何通过最大化互信息,从海量无标签数据中学习到强大泛化特征。
2025-06-29 18:25:07
794
原创 【硬核数学】2.4 驯服“梯度下降”:深度学习中的优化艺术与正则化技巧《从零构建机器学习、深度学习到LLM的数学认知》
本文从梯度下降(GD)的基础概念出发,逐步解析随机梯度下降(SGD)如何应对大规模数据的挑战,并揭示其固有的局限性。随后,文章详细介绍了动量法、RMSProp等改进型优化器,最终聚焦于集大成者Adam,阐述其如何智能地自适应学习率,加速模型收敛并抑制震荡。为防止模型过拟合、提升泛化能力,文中全面讲解了L1/L2正则化、巧妙的Dropout随机失活机制以及Batch Normalization。同时,针对深度网络常见的梯度消失与爆炸问题,还介绍了如权重初始化、ReLU激活函数和梯度裁剪等关键解决方案。
2025-06-29 17:51:02
599
原创 【硬核数学】2.3 AI的“想象力”:概率深度学习与生成模型《从零构建机器学习、深度学习到LLM的数学认知》
文章首先介绍了贝叶斯深度学习,它将模型参数从点估计升级为概率分布,从而实现对预测的不确定性量化,提升AI在关键领域的可靠性。面对贝叶斯推断的计算难题,我们详细阐述了变分推断(VI)如何巧妙地将其转化为可优化的ELBO损失,完美融入深度学习框架。在此基础上,文章进一步揭秘了AI“想象力”的数学源头——概率生成模型。重点解析了变分自编码器(VAE)如何通过编码器、解码器和规整的潜在空间生成新数据,以及生成对抗网络(GAN)如何通过生成器与判别器的对抗博弈,生成高度逼真的图像。
2025-06-29 16:44:55
760
原创 【硬核数学】2.2 深度学习的“微积分引擎”:自动微分与反向传播《从零构建机器学习、深度学习到LLM的数学认知》
自动微分与反向传播。面对深度神经网络海量参数的梯度计算难题,文章揭示了传统手动或数值微分的局限,并详细阐述了自动微分(AD)的卓越效率,特别是反向模式AD(即反向传播)如何高效利用链式法则。通过计算图这一直观工具,读者将理解前向传播构建计算路径,以及反向传播如何逐层、精确地计算并累积梯度。文章还辨析了反向传播与梯度下降的区别与联系,强调了现代深度学习框架(如PyTorch、TensorFlow)如何自动化这一过程。掌握自动微分与反向传播,是理解AI模型学习机制、从零构建深度学习知识体系的关键一步。
2025-06-29 15:57:22
998
原创 【硬核数学】2.1 升级你的线性代数:张量,深度学习的多维数据语言《从零构建机器学习、深度学习到LLM的数学认知》
张量是标量、向量和矩阵的自然推广,能够高效地表示和处理图像、视频、批量文本等复杂高维数据,解决了传统矩阵表示的局限性。文章详细阐述了张量的阶、形状及其在深度学习数据流中的应用,例如图像的 (H,W,C) 表示和批处理。深入解析了张量运算的核心机制,包括逐元素运算、广播机制如何简化计算,以及张量缩并作为广义乘法在神经网络层(如全连接层和卷积层)中的关键作用。理解张量是掌握现代神经网络(从CNN到Transformer)工作原理的基石,为读者打开通往深度学习世界的通用语言之门。
2025-06-29 15:33:01
1565
原创 【硬核数学】5. AI如何像“上帝”一样思考?信息论揭秘决策的奥秘《从零构建机器学习、深度学习到LLM的数学认知》
文章从信息论的核心概念“熵”开始,阐述如何量化系统的平均不确定性,并引出“信息增益”作为衡量特征重要性的标准,揭示其在经典决策树算法(如ID3)中如何驱动模型进行高效决策。接着,介绍更通用的“互信息”概念,以及它在特征选择中的应用。最后,文章将信息论的思想延伸至现代深度学习,详细解释“交叉熵”如何作为分类任务的损失函数,以及它与KL散度在优化模型预测中的关键作用。
2025-06-29 15:04:55
930
原创 【硬核数学】4. AI的“寻路”艺术:优化理论如何找到模型的最优解《从零构建机器学习、深度学习到LLM的数学认知》
梯度下降虽能优化AI模型,但在复杂非凸地形中易陷入局部最优。本篇深入探讨优化理论,为模型训练提供“高级导航系统”。文章从理想的凸优化讲起,揭示其全局最优特性及其在线性回归、逻辑回归中的应用。随后,详解拉格朗日乘子法如何解决带约束的优化问题,引出KKT条件与正则化的深层联系。最后,阐述对偶理论的强大,特别是在支持向量机(SVM)中如何通过对偶问题和核技巧实现高效非线性分类。本文将助您从数学本质上理解AI模型如何克服训练挑战,实现参数优化,是深入掌握机器学习、深度学习不可或缺的数学基石。
2025-06-29 14:50:33
560
原创 【硬核数学】3. AI如何应对不确定性?概率论为模型注入“灵魂”《从零构建机器学习、深度学习到LLM的数学认知》
在构建AI模型时,线性代数和微积分提供了结构与优化动力,但现实世界充满不确定性。本文深入探讨AI三大基石之一的概率统计,揭示它如何为人工智能处理复杂、随机的数据提供“灵魂”。我们将从随机变量、概率分布、期望和方差等基本概念入手,掌握描述不确定性的语言;进而学习条件概率与贝叶斯定理,理解AI如何进行数据驱动的推理和决策,如朴素贝叶斯分类器。最重要的是,文章将详细讲解最大似然估计(MLE)这一连接概率论与机器学习模型训练的核心方法。
2025-06-29 13:33:06
582
原创 4. 随机微分方程(SDE):扩散模型的“核心魔法”!AI如何驾驭噪声,从“无”到“有”创造一切
本文深入探讨了随机微分方程(SDE),一种描述世界中随机性的强大数学工具。与此前确定性的ODE和PDE不同,SDE拥抱了噪声作为系统内在组成部分,其核心是布朗运动和独特的伊当微积分,特别是伊当引理。更重要的是,文章揭示了SDE如何成为当前最前沿的生成模型——扩散模型(Diffusion Models)背后的理论基石。通过前向SDE将数据转化为噪声,并训练神经网络学习其逆向SDE(特别是分数函数),扩散模型能够从纯粹的噪声中创造出逼真的图像和内容。此外,文章还介绍了与SDE对应的概率流ODE,为高效采样提供了
2025-06-28 02:01:37
619
原创 3. 物理信息神经网络(PINNs)和偏微分方程(PDE),用物理定律约束神经网络
本文带领读者探索偏微分方程(PDEs),这种描述物理量随时间和空间耦合变化的强大数学工具。区别于常微分方程,PDEs揭示了热传导、波动和扩散等现象的复杂动态。文章首先概述了PDEs的三大核心类型——椭圆型、抛物型和双曲型,并阐述了初始条件和边界条件在确保解的唯一性中的关键作用,以及弱解概念的现代意义。随后,本文重点介绍革命性的物理信息神经网络(PINNs)。PINNs通过将物理定律直接编码到损失函数中,并利用自动微分,实现了对PDEs的无网格求解。这使得AI模型能够理解并遵守物理规律,不仅能解决正问题,更能
2025-06-28 01:48:03
972
原创 2. 演化的蓝图——动力系统,洞悉AI模型的长期行为与稳定
本文将视角从单一的常微分方程(ODE)轨迹提升至动力系统的全局图景,旨在揭示AI模型长期行为的内在机制。我们将深入探讨相空间、流和不变集等核心概念,特别是不动点与稳定性分析,通过线性化和雅可比矩阵的特征值来精确判断系统平衡点的性质。文章进一步引入了吸引子和极限环的概念,阐明系统最终归宿的多样性,并通过分岔现象展现参数变化如何导致系统行为的质变。最后,我们将动力系统理论与现代AI技术相结合,阐述Flow Matching如何直接学习数据演化流,以及吸引子视角如何解释生成模型的模式坍塌问题,并利用稳定性分析深入
2025-06-28 01:27:40
851
原创 1. 宇宙的语言——常微分方程(ODE),从经典理论到AI之心
本文深入探讨了常微分方程(ODE)的核心概念及其在现代人工智能,特别是神经网络ODE(Neural ODEs)中的革命性应用。我们将ODE从传统的“解题工具”提升为描述“变化”的通用语言,并通过向量场和积分曲线建立其几何直觉。文章详细介绍了解的存在性与唯一性(利普希茨条件),并阐述了数值求解方法(欧拉法、龙格-库塔法)如何在无法获得解析解时近似模拟动态系统。最终,我们揭示了ResNet与欧拉法的深层联系,引出Neural ODEs如何将深度学习模型视为连续的动态系统,并利用伴随灵敏度方法实现高效训练。本文旨
2025-06-28 00:47:47
825
原创 网络安全基础:从CIA三元组到密钥交换与消息认证
这篇深度解析网络安全的文章,旨在为零基础读者揭示信息保护的核心奥秘。从网络安全基石——机密性、完整性、认证(CIA三元组)出发,详细阐述了数据安全的根本需求。文章深入讲解了高效但面临密钥分发挑战的对称加密,以及如何利用非对称加密(公钥密码体制)在如HTTPS协议中安全地协商会话密钥。此外,还探讨了通过HMAC(消息认证码)确保信息来源真实性与内容完整性的关键技术,强调了“先加密后认证”的最佳实践。本文旨在帮助读者全面理解现代网络安全体系的构建原理,是数据保护入门的理想指南。
2025-06-21 20:32:56
1085
原创 【DSP笔记】线性相位FIR滤波器的四大“掌门”:小白也能看懂的特性与应用
深入探索线性相位FIR滤波器的四大类型:I型、II型、III型和IV型。本文详细解析每种类型的长度、对称性、频率响应特点及群延迟,阐明它们在低通、高通、带通、带阻、微分器及希尔伯特变换器等数字信号处理应用中的独特优势与适用场景。帮助读者理解选择最佳滤波器的关键因素,提升信号处理能力。
2025-06-20 18:57:20
358
原创 【过程控制笔记】调节阀的“等百分比”特性
本文深入探讨工业自动化中调节阀的关键“等百分比”特性,详解其工作原理、数学模型及相对开度、相对节流面积、可调比等核心参数。通过实际计算案例,揭示等百分比阀在精密流量控制中的独特优势。了解并掌握其特性,有助于优化过程控制系统,提升自动化精度和效率。
2025-06-20 18:32:26
967
原创 【DSP数字信号处理 · 表格速记笔记】数字滤波器设计与应用
本篇数字信号处理核心笔记全面梳理了数字滤波器设计与应用的关键知识。内容涵盖IIR数字滤波器的直接、级联、并联等多种网络结构对比,深入分析其性能特点。同时,详细比较了巴特沃斯、切比雪夫等经典模拟滤波器原型在通带、阻带、相位响应上的差异,并阐述了脉冲响应不变法与双线性变换法在IIR设计中的应用及挑战。文章还解析了四种线性相位FIR滤波器类型,以及矩形窗、汉宁窗等常用窗函数的特性,为理解滤波器特性与选择提供依据。最后,笔记对FIR与IIR数字滤波器在稳定性、相位、阶数及计算量等方面的优劣进行了系统性总结,为数字信
2025-06-20 17:36:37
99
原创 一张图搞懂三菱PLC的“堆栈逻辑”,看懂ORB与ANB的精髓
告别三菱PLC死记硬背!本文深度解析PLC“堆栈逻辑”核心原理,详尽阐释ORB与ANB指令如何精妙构建复杂串并联,并对比MPS/MPP适用场景,助你彻底掌握指令表编程,轻松驾驭复杂自动化逻辑。通过庖丁解牛式代码解析,让你不仅知其然,更知其所以然,从指令记忆升华为逻辑构建艺术,提升编程效率与问题解决能力。
2025-06-19 18:06:52
743
原创 万物皆数:构建数字信号处理的数学基石
深入理解数字信号处理(DSP)的核心:数学。本文揭示了高等数学中的极限、导数、积分、无穷级数如何作为DSP的基石,解释了Z变换、傅里叶变换等复杂概念的数学渊源。学习极限在初值/终值定理中的应用,导数如何定义滤波器特性,积分如何用于信号重构与能量分析,以及无穷级数如何构建Z变换与收敛域。通过掌握这些数学原理,你将能更深刻地理解并应用DSP技术,让信号处理不再是“天书”。立即探索数学如何赋能DSP。
2025-06-14 23:26:56
1350
原创 【DSP笔记 · 第4章】算法的奇迹:快速傅里叶变换(FFT)如何改变世界
探索快速傅里叶变换(FFT)这一数字信号处理领域的“奇迹算法”。本文深入浅出地讲解了FFT如何作为一种高效计算离散傅里叶变换(DFT)的方法,将计算复杂度从急剧降低到。通过分而治之的核心思想和经典的蝶形运算,FFT克服了DFT计算量大的瓶颈,彻底改变了实时频谱分析、快速卷积、数字通信(如OFDM)等众多技术领域。了解FFT的原理、DIT/DIF算法结构及其在现代技术中的广泛应用,揭示算法的力量如何推动科技进步。
2025-06-14 12:23:22
918
原创 【DSP笔记 · 第3章】数字世界的“棱镜”:离散傅里叶变换(DFT)完全解析
深入理解数字信号处理核心工具——离散傅里叶变换(DFT)。本文探讨DFT如何将理论上的离散时间傅里叶变换(DTFT)转化为计算机可处理的有限长、离散频谱表示,通过在频域对DTFT进行采样实现。深入剖析DFT的隐含周期性特性,解释其导致的循环卷积,并介绍通过补零实现快速线性卷积的关键技术。了解DFT在数字频谱分析中的应用、频谱泄漏与栅栏效应等挑战。掌握DFT是迈向数字信号处理实践及FFT算法理解的决定性一步,揭示信号隐藏的频率结构,如同数字世界的“棱镜”。
2025-06-14 12:02:54
431
原创 【DSP笔记 · 第5章】数字滤波器的蓝图:从数学公式到硬件实现的艺术
本文深入探讨了数字滤波器的网络结构,揭示了如何将抽象的数学系统函数H(z)转化为实际可运行的硬件或软件实现蓝图。文章详细介绍了信号流图这一可视化语言,并分别解析了IIR和FIR滤波器的关键结构。对于IIR滤波器,讨论了直观但高阶时可能不稳定直接型(Direct Form I/II)、数值稳定性更好的级联型(Cascade Form)和并联型(Parallel Form)。对于FIR滤波器,阐述了基础的直接型以及利用系数对称性大幅优化乘法器数量的线性相位结构(Linear Phase Form)。
2025-06-14 11:38:08
1718
原创 【DSP笔记 · 第7章】信号处理的“整形”大师:FIR滤波器与线性相位的奥秘
数字信号处理中,FIR滤波器因其独特的线性相位特性而成为波形保真度要求的首选。本文深入探讨了有限脉冲响应(FIR)滤波器的核心优势——如何通过脉冲响应的对称性实现严格线性相位,有效避免IIR滤波器可能带来的波形畸变、过冲和振铃现象。这对于高保真音频、图像处理、数据通信和医学信号分析至关重要。文章详细介绍了窗函数法、频率采样法等经典的FIR设计方法,并提供了FIR与IIR滤波器在相位、效率和稳定性等方面的对比,帮助读者理解如何在不同应用场景下做出最佳滤波器选择。掌握FIR滤波器,是提升信号处理技能的关键一步。
2025-06-14 11:04:25
616
原创 【DSP笔记 · 第6章】数字世界的“筛子”:IIR滤波器设计从入门到精通
深入了解数字信号处理中的核心技术——无限脉冲响应(IIR)滤波器设计。本文将IIR滤波器比作信号的“筛子”,带您从入门到精通,掌握其技术指标、经典模拟滤波器原型(如巴特沃斯和切比雪夫)及其权衡。重点解析了IIR设计中应用最广泛的双线性变换法,如何通过频率预畸变克服混叠问题,实现从模拟到数字的精确转换。理解IIR滤波器的设计原理和方法,是音频处理、通信、物联网等领域不可或缺的基础知识。
2025-06-14 02:07:55
487
原创 【最少拍&大林算法】从“一步到位”到“平滑过渡”
本文深入探讨了数字控制领域的两大核心算法:最少拍控制(Deadbeat Control)与大林算法(Dahlin's Algorithm)。针对计算机在固定节拍下工作的特点,文章首先介绍了数字控制的原理,如采样、保持及Z变换。最少拍控制旨在实现系统在最短时间内的“一步到位”响应,设计直接,但对模型精度要求极高,且易引起采样间纹波。相比之下,大林算法通过引入可调时间常数,强调平滑、无超调的过渡响应,对模型误差具有更强的鲁棒性,在工业自动化控制中表现出更高的实用价值。文章通过对比两者的优缺点,帮助读者理解如何平
2025-06-14 01:14:42
937
原创 博客标题:逆向工程“AI美国大战”:我们如何用代码导演一场数字文明的“权力的游戏”?
逆向工程B站热播《三大AI,美国开战!》视频,深度解析AI模拟战争的宏观架构、精妙Prompt工程与LLM驱动的多智能体博弈系统,揭示AI生成叙事的奥秘。
2025-06-11 22:18:25
1239
原创 【DSP数字信号处理】期末复习笔记(二)
这篇数字信号处理(DSP)期末复习笔记,深入浅出地讲解了DSP基础概念、序列表示与运算(包括卷积)、周期性判断、采样定理及频谱混叠。笔记涵盖系统性质判断(线性、时不变、因果、稳定),DTFT与Z变换理论、系统函数与差分方程转换,并详述IIR和FIR滤波器结构(直接型、级联、并联、线性相位)及IIR滤波器设计方法(脉冲响应不变法、双线性变换法)。最后介绍了DFT、循环卷积、FFT算法原理(DIT, DIF)及运算量对比,并总结了时域与频域的对偶关系。内容侧重解题思路与例题分析,是DSP期末备考的实用指南。
2025-06-02 13:31:05
1137
原创 【DSP数字信号处理】期末复习笔记(一)
这篇数字信号处理(DSP)期末复习笔记,深入浅出地讲解了DSP基础概念、序列表示与运算(包括卷积)、周期性判断、采样定理及频谱混叠。笔记涵盖系统性质判断(线性、时不变、因果、稳定),DTFT与Z变换理论、系统函数与差分方程转换,并详述IIR和FIR滤波器结构(直接型、级联、并联、线性相位)及IIR滤波器设计方法(脉冲响应不变法、双线性变换法)。最后介绍了DFT、循环卷积、FFT算法原理(DIT, DIF)及运算量对比,并总结了时域与频域的对偶关系。内容侧重解题思路与例题分析,是DSP期末备考的实用指南。
2025-06-02 13:29:27
993
原创 【DSP笔记 · 第2章】解锁频率之秘:Z 变换与离散傅里叶变换的深度探索
深度探索 Z 变换与离散时间傅里叶变换 (DTFT),数字信号频域分析核心工具。理解它们如何将时域卷积简化为频域乘积,学习收敛域 (ROC) 的重要性。通过系统函数、零极点图分析 LTI 系统的频率响应、因果性与稳定性。掌握解差分方程利器,洞悉系统本质。文章包含详细解析及练习题,助你轻松掌握离散信号处理要义。
2025-05-27 20:25:14
1145
原创 【DSP笔记 · 第1章】掌握数字世界的律动:时域离散信号与系统基础
本文是数字信号处理 (DSP) 系列第一篇。通俗介绍时域离散信号(序列)、系统(差分方程、LTI、卷积)、基本运算及特性(线性、时不变、因果、稳定)。探讨模数转换 (ADC/DAC)、采样定理与混叠,为你构建数字世界基础认知,助力自动化数据处理应用。
2025-05-27 19:58:24
747
原创 【硬核DIY · 嵌入式AI】ESP32碰上AI——用Arduino在ESP32-S3上实现AI音频分类
本文将带你一步步在资源受限的ESP32-S3微控制器上,使用TensorFlow Lite Micro (TFLM) 部署一个婴儿哭声识别与分类模型。项目涵盖音频数据采集、梅尔频谱图特征提取、CNN模型训练、模型转换到最终的端侧部署。这是一个源于大二时期比赛项目(虽然没进省赛😂)的复盘与升级,希望能为你的嵌入式AI学习之路提供一些启发。文末附GitHub仓库,求Star求Fork!
2025-05-26 21:34:55
1668
原创 【MPC控制】番外篇:MPC 与 机器学习/深度学习 —— 双雄会的相似与不同
本文深入对比了模型预测控制(MPC)与机器学习/深度学习(ML/DL)在控制系统中的应用。了解MPC基于模型的优化预测,及其处理约束的优势;探讨ML/DL如何通过数据驱动学习复杂策略。文章分析了两者的核心区别——模型 vs 数据、可解释性、约束处理、安全性等,同时也指出它们在处理复杂系统和智能决策上的相似之处。最后,探讨了MPC与ML/DL强强联合构建更智能、鲁棒控制系统的潜力,以及在自动驾驶(如ACC)等领域的选型考量。理解这些技术,为未来控制系统设计提供更广阔视角。
2025-05-25 12:33:57
914
原创 【MPC控制 - 从ACC到自动驾驶】5. 融会贯通:MPC在ACC中的优势总结与知识体系构建
本文深入总结了模型预测控制(MPC)在自适应巡航控制(ACC)系统中的应用。我们回顾了从ACC需求分析、车辆建模到MPC控制器设计和仿真验证的完整流程。重点探讨了MPC相比传统控制器的核心优势,包括强大的预测能力、显式的约束处理能力以及高效的多目标优化能力。理解MPC在ACC中的作用,是掌握其在更复杂的自动驾驶场景中应用的基础。文章还讨论了如何通过调整权重平衡安全性、舒适性与跟踪性。MPC是构建高性能、智能化汽车控制系统的关键技术。
2025-05-25 12:13:10
852
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人