
人工智能与机器学习
文章平均质量分 93
人工智能与机器学习
WHCIS
新入圈的萌新
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
从机器学习到强化学习:Q-Learning与策略梯度深度解析
监督学习通过标注数据集D{(xiyii1N建立确定性映射fθx→y,其本质是数据分布拟合过程。θminN1i1∑NLfθxiyiλ∥θ∥2其中L为损失函数,λ为正则化系数。例如在MNIST手写数字识别任务中,标签yi直接给出0-9的确定类别。原创 2025-02-15 20:23:27 · 781 阅读 · 0 评论 -
深度学习基石:卷积神经网络(CNN)与图像识别
在传统全连接神经网络中,每个神经元都与相邻层的所有神经元连接。以MNIST数据集(28×28像素)为例,输入层需784个神经元,若第一隐藏层有1000个神经元,参数规模将达784×1000=784,000。这种结构存在两大核心问题:参数爆炸问题对于高分辨率图像(如1024×1024的RGB图像),输入层参数达3,145,728个。空间信息破坏空间邻域像素间的关联性(如边缘连续性、纹理方向性)被完全忽略。原创 2025-02-15 20:13:20 · 766 阅读 · 0 评论 -
概率图模型深度解析:从贝叶斯网络到隐马尔可夫模型
HMM五元组λSVABπλSVABπ状态集合Ss1sNSs1...sN观测集合Vv1vMVv1...vM状态转移矩阵AN×NA_{N×N}AN×N观测概率矩阵BN×MB_{N×M}BN×M初始状态分布πN×1\pi_{N×1}πN×1评估问题:计算观测序列概率PO∣λPO∣λ(前向-后向算法)解码问题:寻找最优状态序列Q∗argmax。原创 2025-02-15 19:58:01 · 795 阅读 · 0 评论 -
正则化技术:L1/L2范数、Dropout与早停法全维度解析
Switchable Normalization:动态选择归一化方式DropBlock:在卷积特征图中丢弃连续区域Adversarial Dropout:生成对抗性丢弃模式实验表明,在ImageNet上组合使用自适应Dropout与动态早停法,可使Top-1误差降低18.2%。基于强化学习的正则化参数优化面向Transformer架构的正则化设计正则化与自监督学习的协同机制。原创 2025-02-15 19:48:19 · 1024 阅读 · 0 评论 -
优化算法核心:梯度下降与自适应优化器深度解析
梯度下降法的核心在于通过迭代方式逼近目标函数的最小值,其数学本质是泰勒一阶展开近似。对于损失函数Lθ,在参数点θtLθt1≈Lθt∇θLθtTθt1−θt要最小化Lθt1,需令θt1−θt−η∇θLθt,即得到参数更新公式。原创 2025-02-15 19:14:11 · 788 阅读 · 0 评论 -
神经网络基础:从感知机到反向传播——原理详解与代码实现
yfi1∑nwixib其中ffz10ifz0otherwisewi←wiηytrue−ypredxiη为学习率,ytrue为真实标签,ypred为预测输出。原创 2025-02-15 18:55:24 · 969 阅读 · 0 评论 -
支持向量机(SVM):从线性可分到核技巧——原理推导与实战解析
SVM是一种基于结构风险最小化的监督学习算法,其核心是通过构建最大间隔超平面实现分类。与感知机不同,SVM不仅要求分类正确,还追求间隔最大化以提高泛化能力。原创 2025-02-15 18:46:54 · 701 阅读 · 0 评论 -
集成学习三大核心算法:Bagging、随机森林与AdaBoost深度解析
1997年,随机森林之父Leo Breiman在论文中首次提出Bagging理论,开启了现代集成学习的序幕。较大时,每个Bootstrap样本包含约63.2%的原始数据。个样本的数据集,Bootstrap抽样生成新数据集。,这就是Bagging的理论基础。时(完全独立),方差缩减为。假设基学习器间相关系数为。个特征,产生特征子空间。假设基分类器错误率为。原创 2025-02-15 18:39:38 · 733 阅读 · 0 评论 -
决策树:从ID3到C4.5算法的演进与核心实现
1986-ID3:开创性地将信息论引入机器学习1993-C4.5:引入增益率、连续值处理和剪枝策略,获得KDD-94大奖1984-CART:支持回归任务,成为现代集成学习的基石。原创 2025-02-15 18:37:36 · 993 阅读 · 0 评论 -
无监督学习初探:K-Means聚类与主成分分析(PCA)
K-Means适用于快速分组,但对数据分布敏感,可结合轮廓系数评估质量。PCA通过特征值分解实现线性降维,需注意非线性场景的替代方案(如UMAP)。进阶方向:聚类:谱聚类、高斯混合模型(GMM)处理复杂形状。降维:t-SNE、自编码器处理非线性结构。原创 2025-02-15 18:19:15 · 929 阅读 · 0 评论 -
模型评估与选择:过拟合、偏差-方差分解与交叉验证
这表明模型复杂度越高,训练误差与泛化误差的差距越大,需通过正则化控制复杂度。过拟合本质是模型在高维空间中构造复杂决策边界。泛化能力指模型对未知数据的预测能力,其数学本质可通过泛化误差上界理论描述。该分解表明,模型误差来源于拟合偏差、预测波动性和数据固有噪声。欠拟合模型通常无法覆盖数据真实分布。此时梯度下降会陷入局部最优,无法降低训练误差。结果显示:低次多项式高偏差,高次多项式高方差。通过最大后验估计(MAP)推导出L2正则化项。该方法可减少因数据划分导致的评估偏差。二、过拟合与欠拟合的数学解释。原创 2025-02-15 18:08:59 · 1092 阅读 · 0 评论 -
分类问题的基石:逻辑回归与交叉熵损失
(n: 样本数, d: 特征维度, T: 迭代次数)当先验取高斯分布时,等价于L2正则化。3.1 Hessian矩阵分析。一、核心数学原理深度解析。2.2 关键实现细节分析。1.1 概率映射机制。1.2 损失函数推导。二、从零实现逻辑回归。原创 2025-02-15 15:29:31 · 799 阅读 · 0 评论 -
监督学习入门:线性回归与最小二乘法完全解读
在机器学习领域,线性回归堪称最基础、最重要的算法之一。自1805年勒让德首次提出最小二乘法以来,这一方法始终是数据分析的核心工具。根据Google Scholar统计,过去5年关于线性回归的研究论文引用量超过120万次,在Kaggle竞赛中,超过78%的baseline模型使用线性回归作为起点。本文将深入剖析一元线性回归的数学原理,揭示最小二乘法的本质,并通过Python代码实现完整的房价预测案例。几何视角:在n维空间中寻找最佳拟合超平面,使得所有样本点到超平面的垂直距离平方和最小。的投影,使得残差向量。原创 2025-02-15 15:09:29 · 897 阅读 · 0 评论 -
机器学习基石:线性代数、概率与统计的解析与实践
n维向量。原创 2025-02-15 10:01:58 · 702 阅读 · 0 评论 -
人工智能与机器学习:从数学基础到产业落地的探索
当Stable Diffusion模型生成逼真的数字艺术作品时,当Tesla Autopilot在复杂路况中自主决策时,人工智能已从实验室走向现实世界。控制未来收益权重,价值函数。原创 2025-02-15 09:47:38 · 716 阅读 · 0 评论 -
AI编译器的未来:MLIR与AutoML深度融合指南
/ 应用分块+向量化 tileAndVectorize(conv , 64 , 16);} });} };// 应用分块+向量化 tileAndVectorize(conv , 64 , 16);} });} };(op)) {// 应用分块+向量化});原创 2025-02-14 06:46:12 · 640 阅读 · 0 评论 -
联邦学习中的分布式加密:差分隐私与安全聚合解析
对于查询函数。原创 2025-02-14 06:33:13 · 1105 阅读 · 0 评论 -
动态图编译优化:PyTorch 2.0 TorchDynamo与TorchInductor解析
模型分析:使用定位热点编译配置:启用调优参数内存优化:采用布局精度调整:混合FP16/FP32训练动态控制流:尽可能静态化循环边界。原创 2025-02-14 06:22:12 · 817 阅读 · 0 评论 -
端侧推理引擎:TFLite Delegates与Core ML的硬件加速设计解析
优化技巧使用快速近似计算(0.7978845608 ≈2π2/π向量化加载(float4类型减少指令数)原创 2025-02-14 06:13:04 · 751 阅读 · 0 评论 -
服务化部署架构:TensorFlow Serving的线程模型与请求调度
通过梯度下降求解最优。原创 2025-02-14 06:01:45 · 672 阅读 · 0 评论 -
模型编译技术:MLIR与TVM的跨硬件优化实践
在深度学习推理和训练中,模型编译技术已成为解锁硬件极限性能的关键。当PyTorch和TensorFlow等框架遭遇硬件多样性(CPU/GPU/NPU/ASIC)和模型复杂性(如动态形状、稀疏计算)的挑战时,MLIR(Multi-Level Intermediate Representation和TVM(Tensor Virtual Machine构成的编译技术栈展现了强大的跨平台优化能力。MLIR的核心设计思想是将所有计算抽象为张量代数表达式,支持任意硬件的数学描述。定义张量T∈Rd1×d2×⋯×dn\ma原创 2025-02-14 05:51:29 · 873 阅读 · 0 评论 -
计算图优化:算子融合与内存复用策略
在深度学习推理场景中,是突破硬件算力瓶颈的核心技术。原创 2025-02-14 05:38:56 · 1085 阅读 · 0 评论 -
模型剪枝实战:从结构化剪枝到彩票假设(Lottery Ticket)深度解析
模型剪枝作为深度学习模型压缩的核心技术,通过移除冗余参数显著降低计算资源需求。原创 2025-02-14 05:27:19 · 825 阅读 · 0 评论 -
模型量化核心技术:INT8校准与量化感知训练(QAT)指南
决定了每个量化步长的浮点值跨度,零点偏移。确保浮点零值精确映射到整数值(如128)。:通过调整权重 (W) 补偿量化误差。其中 (b) 为各层的量化比特数向量。通常取2~3,控制覆盖的分布范围。确保量化后的均值与原分布一致。-bit 整数(通常。原创 2025-02-14 05:11:11 · 729 阅读 · 0 评论 -
去中心化训练:OneFlow的全局视角与一致性哈希优化
定义mmmH01⋯2m−1H01⋯2m−1对于物理节点集合Nn1nkNn1...nk,每个节点创建vvvVihni∣∣0hni∣∣1hni∣∣v−1Vihni∣∣0hni∣∣1...hni∣∣v−1)}其中h⋅h(\cdot)h⋅是哈希函数,∣∣||∣∣表示字符串拼接。虚拟节点分布定理当v≥2lnNϵ。原创 2025-02-14 04:48:31 · 1013 阅读 · 0 评论 -
超大规模模型训练:Megatron-LM模型并行策略解析
这相当于300块A100 GPU的显存总和。NVIDIA Megatron-LM通过。(张量并行+流水线并行+数据并行)的协同设计,将训练效率提升17.8倍。当GPT-3的参数量突破1750亿时,传统单卡训练显存需求高达。为缩放因子(通常1024-65536),当使用FP16训练时,分片操作需引入。(Loss Scaling)和。采用硅光技术实现TB级互联带宽。为阈值(1.0-100.0)发送微批次1 (异步)原创 2025-02-14 04:33:50 · 642 阅读 · 0 评论 -
混合精度训练:FP16与梯度缩放的科学实践
策略配置# 模型构建(自动处理层类型)tf.keras.layers.Dense(1024, activation='relu'), # 自动使用FP16tf.keras.layers.BatchNormalization(), # 强制使用FP32tf.keras.layers.Dense(10, dtype='float32') # 输出层FP32])# 优化器封装# 前向传播(自动混合精度)# 梯度计算与反缩放# 梯度裁剪# 参数更新。原创 2025-02-14 04:23:26 · 781 阅读 · 0 评论 -
通信优化核心技术:Ring AllReduce与NCCL协议的剖析
在大规模分布式训练中,通信优化是提升训练效率的核心。基于硅光子的新型互连技术理论带宽可达10TB/s,延迟降低至纳秒级。在4096 GPU集群中,相比传统Ring算法时延降低63%。时,传统通信协议(如MPI)的通信时间占比可达70%以上。对于Ring AllReduce,每个分块需要。实验表明可节省50%通信带宽,精度损失可忽略。时,带宽利用率趋近于理论最大值。原创 2025-02-14 04:12:21 · 1030 阅读 · 0 评论 -
同步 vs. 异步训练:梯度更新的收敛性与效率博弈
此时收敛速度可提升至。同步与异步训练的取舍是。原创 2025-02-14 03:44:26 · 1085 阅读 · 0 评论 -
分布式训练三大并行策略:数据、模型与流水线并行的本质解析
设有K个Worker,各Worker本地梯度为。原创 2025-02-14 03:09:01 · 1305 阅读 · 0 评论