
算法八股查漏补缺
文章平均质量分 95
以机器学习/深度学习笔记为基础,以真实题目为标准,针对题目描述进行合理扩展的方式对算法思想进行完善。
静静的喝酒
静静的生活就好
展开
-
小实验:关于期望的乘法性质
本节通过代码实现期望的乘法性质。原创 2023-05-13 17:38:48 · 1387 阅读 · 0 评论 -
深度学习笔记之稀疏自编码器
本节以一道算法八股题为引,介绍稀疏自编码器。原创 2023-04-28 16:12:45 · 1430 阅读 · 0 评论 -
牛客网算法八股刷题系列(十)再回首——线性判别分析与核函数
牛客网算法八股刷题系列(十)再回首——线性判别分析与核函数原创 2023-04-25 18:47:56 · 530 阅读 · 0 评论 -
牛客网算法八股刷题系列(九)训练过程损失函数不下降问题
牛客网算法八股刷题系列——训练过程损失函数不下降问题原创 2023-04-17 15:34:49 · 659 阅读 · 0 评论 -
机器学习笔记之正则化(六)批标准化(BatchNormalization)
本节以梯度消失为引,介绍批标准化(Batch Normalization)。原创 2023-04-16 10:04:38 · 705 阅读 · 0 评论 -
机器学习笔记之正则化(五)Dropout
本节将介绍一种应用于深度神经网络的正则化方法——Dropout方法。原创 2023-04-11 17:48:54 · 814 阅读 · 0 评论 -
牛客网算法八股刷题系列(八)K-Means真题描述
牛客网算法八股刷题系列——K-Means真题描述原创 2023-04-10 18:30:46 · 571 阅读 · 0 评论 -
牛客网算法八股刷题系列(七)正则化(软间隔SVM再回首)
牛客网算法八股刷题系列——正则化(软间隔SVM再回首)原创 2023-04-10 15:20:39 · 391 阅读 · 0 评论 -
牛客网算法八股刷题系列(六)正则化与偏差、方差的联系
牛客网算法八股刷题系列——正则化与偏差、方差的联系原创 2023-04-08 10:43:58 · 381 阅读 · 0 评论 -
机器学习笔记之正则化(四)贝叶斯概率角度
上一节介绍了从权重衰减的角度描述正则化的本质,本节从贝叶斯概率的角度对正则化进行描述。原创 2023-04-07 14:31:56 · 462 阅读 · 0 评论 -
机器学习笔记之正则化(三)权重衰减角度(偏差方向)
上一节从直观现象的角度观察权重W是如何出现权重衰减的,并且介绍了W的权重衰减是如何抑制过拟合的发生。本节从偏差方向观察权重衰减。原创 2023-04-06 17:28:45 · 586 阅读 · 0 评论 -
机器学习笔记之正则化(二)权重衰减角度(直观现象)
上一节介绍了从拉格朗日乘数法角度观察正则化,本节从权重衰减的角度观察正则化。原创 2023-04-04 18:55:31 · 840 阅读 · 0 评论 -
机器学习笔记之正则化(一)拉格朗日乘数法角度
从本节开始,将介绍正则化,并从拉格朗日乘数法角度进行观察。原创 2023-04-03 19:30:10 · 1246 阅读 · 4 评论 -
牛客网算法八股刷题系列(五)过拟合、模型复杂度与核函数
牛客网算法八股刷题系列——过拟合、模型复杂度与核函数原创 2023-03-31 15:51:05 · 558 阅读 · 1 评论 -
牛客网算法八股刷题系列(四)概率密度函数、累积分布函数、概率质量函数
算法八股刷题系列之概率密度函数、累积分布函数、概率质量函数原创 2023-03-30 17:56:38 · 569 阅读 · 0 评论 -
牛客网算法八股刷题系列(三) 最小均方误差算法,H-K算法,感知机算法
牛客网算法八股刷题系列——最小均方误差算法,H-K算法,感知机算法原创 2023-03-29 17:48:47 · 548 阅读 · 0 评论 -
牛客网算法八股刷题系列(二)卷积函数、随机梯度下降、ReLU
牛客网算法八股刷题系列——卷积函数、随机梯度下降、ReLU原创 2023-03-28 17:54:24 · 355 阅读 · 0 评论 -
牛客网算法八股刷题系列(一)Boosting相关
牛客网算法八股刷题系列——Boosting原创 2023-03-23 15:59:20 · 462 阅读 · 0 评论 -
机器学习笔记之集成学习(六)Stacking
上一节介绍了基于Gradient Boosting架构的经典模型——梯度提升树(Gradient Boosting Decision Tree,GBDT)。本节将介绍另一种集成学习思想——Stacking。原创 2023-03-22 09:24:34 · 426 阅读 · 0 评论 -
机器学习笔记之集成学习(五)梯度提升树(GBDT)
上一节介绍了Boosting集成思想的经典样例——Gradient Boosting,本节将介绍基于Gradient Boosting的经典模型——梯度提升树(Gradient Boosting Decision Tree,GBDT)。原创 2023-03-21 11:14:00 · 449 阅读 · 0 评论 -
机器学习笔记之集成学习(四)Gradient Boosting
上一节介绍了Boosting算法思想。并以加性模型的AdaBoost为例,介绍了理论推导过程。本节将继续介绍Boosting算法系列的另一个样例——Gradient Boosting。原创 2023-03-16 17:27:14 · 860 阅读 · 1 评论 -
机器学习笔记之集成学习(三)AdaBoost(加性模型的数学推导)
上一节介绍了Bagging集成学习思想。本节将介绍集成学习思想——Boosting,并介绍经典模型AdaBoost。原创 2023-03-15 20:18:34 · 520 阅读 · 0 评论 -
机器学习笔记之集成学习(二)Bagging与随机森林
上一节介绍了模型泛化误差的组成——偏差、方差、噪声。本节将介绍降低方差的集成学习方法——Bagging。原创 2023-03-14 16:13:47 · 880 阅读 · 0 评论 -
机器学习笔记之集成学习(一)偏差与方差
从本节开始将介绍集成学习的思想,本节将介绍统计机器学习中用来衡量模型的重要指标——偏差与方差。原创 2023-03-13 15:02:00 · 727 阅读 · 0 评论