机器学习的数学基础
文章平均质量分 93
爱数学的小理
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Deep Learning|03 Overview of Machine Learning
∈Rn∈R{(x1y1x2y2xNyN)}∗xf1xf2x∗xf∗xy∣xfy∗x∗x∗x′f∗x))∣D′∣1∑If∗xywhere I⋅D′∣xy∈X×Yto y∗∈Ffx;θ∣θ∈Rmwhere fx;θx;θw⊤xbx:fx;θw⊤ϕxbwhere ϕxϕ。原创 2025-10-11 20:53:24 · 492 阅读 · 0 评论 -
Deep Learning|02 Handcraft Code of BRF Network
【代码】Deep Learning|02 Handcraft Code of BRF Network。原创 2025-10-02 12:27:18 · 790 阅读 · 0 评论 -
最优化:建模、算法与理论|02 Optimization Modeling and Typical Examples(1)
ixRn→Ri12⋯mbe niϕixi12⋯mwhere bi∈R2∈Rnmini1∑mbi−ϕix2i∈Rnmini1∑m∣bi−ϕix∣∈Rnminimax∣bi−ϕix∈Rnmini1∑mbi−ϕix2μ∥x∥22。原创 2025-08-17 21:08:44 · 782 阅读 · 0 评论 -
最优化:建模、算法与理论|01 基础介绍
最优化问题一般描述为:minf(x)\min f(\boldsymbol{x})minf(x)s.t.x∈χ\text{s.t.}\quad \boldsymbol{x}\in \chis.t.x∈χ其中,x=(x1,x2,⋯ ,xn)T∈Rn\boldsymbol{x}=(x_1,x_2,\cdots ,x_n)^{T}\in \mathbb{R}^nx=(x1,x2,⋯,xn)T∈Rn是决策变量,$f:\mathbb{R}^n\to \mathbb{R} 是目标函数,是目标函数,是目标函数,\原创 2025-08-15 19:36:17 · 649 阅读 · 0 评论 -
单因素方差分析
方差分析的原假设H0μ1μ2...μkμ;备择假设H1定义为:至少有两组总体均值不相等(即∃ijμiμj设研究中存在一个分组因素(单因素ANOVA),该因素有k个水平,第i组中有ni观测值,总样本量为NNi1∑kni设随机变量Xij为第i组的第j个观测值。对于第ixini1j1∑nixijx总N1i1∑j1。原创 2025-08-11 11:17:09 · 758 阅读 · 0 评论 -
决策树实现回归任务
决策树实现回归任务就是根据特征向量来决定对应的输出值。回归树就是将特征空间划分成若干单元,每一个划分单元有一个特定的输出。因为每个结点都是“是”和“否”的判断,所以划分的边界是平行于坐标轴的。对于测试数据,我们只要按照特征将其归到某个单元,便得到对应的输出值。左边为对二维平面划分的决策树,右边为对应的划分示意图,其中c1,c2,c3,c4,c5是对应每个划分单元的输出。如现在对一个新的向量(6,6)决定它对应的输出。原创 2025-07-31 22:02:01 · 846 阅读 · 3 评论 -
数据降维方法:PCA
它通过线性变换将原始数据变换到一个新的坐标系中,使得第一个坐标(第一主成分)具有最大的方差,第二个坐标(第二主成分)具有次大的方差,以此类推。PCA的目的是从高维数据中提取出最重要的特征,通过保留最重要的主成分来实现数据的降维,同时尽可能保留原始数据的结构。特征值表示对应特征向量方向上的数据方差大小,特征向量给出了数据的主要分布方向(即主成分)。对于标准化后的数据,协方差矩阵可以通过计算特征之间的协方差得到。为了消除不同特征之间的量纲影响,通常需要对数据进行标准化处理,使得每个特征的均值为0,标准差为1。原创 2025-07-16 22:13:47 · 1111 阅读 · 0 评论 -
机器学习的数学基础:神经网络
神经网络中的最基本单位,其中沿用至今最为广泛的就是。感知机由两层神经元组成,输入层接收外界输入信号后传递给输出层,输出层是M-P神经元,又称"阈值逻辑单元"。感知机只有输出层神经元进行激活函数处理,学习能力有限,,但事实上,对于线性可分问题,有:多层前馈神经网络由输入层、若干隐藏层和输出层组成,各层神经元通过权重连接,信号从输入层单向传递至输出层,层内神经元无连接,层间神经元全连接(或部分连接,如卷积神经网络的局部连接)。误差逆传播算法(简称 BP 算法)是训练人工神经网络的核心算法,通过高效计算梯度并更新原创 2025-06-07 20:50:09 · 1402 阅读 · 0 评论 -
机器学习的数学基础:决策树
后剪枝是指先不做干预,让决策树完整生长至叶子结点(即按常规构建流程生成一棵尽可能复杂的树 ),之后再从树的底层向上(或自顶向下等方式 )遍历结点,评估将某个分支剪掉(即把该分支替换为叶结点,类别按分支中样本多数类等方式确定 )后,模型在验证集上的泛化能力是否提升,若提升则剪枝,直至无法通过剪枝改善性能。划分后,能达到最优的划分效果(比如用信息增益、信息增益比、基尼指数等指标衡量,和离散属性选最优划分的逻辑一致,只是候选划分是基于连续值构造的“二分点” )。让缺失值样本 “以不同概率,划入所有可能的分支”.原创 2025-06-05 18:54:45 · 1299 阅读 · 0 评论 -
机器学习的数学基础:假设检验
EfD∫x∼DIIfxypxdx假设检验中的"假设"是对学习泛化错误率εε0其中,我们ε0为测试错误率是已知的。原创 2025-06-04 20:59:35 · 890 阅读 · 0 评论 -
机器学习的数学基础:线性模型
fxωTxb。原创 2025-06-04 20:58:01 · 1036 阅读 · 0 评论
分享