
应用数学技术
记录好玩好用的数学技术
菜菜X
除了菜,一无所有
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
瞎想-从符号字面意思上看看最大似然估计MLE和最大后验估计MAP
VersionSDescriptionDateByV1CFirst Version2020-11-21AYZPC―― Create,A—— Add,M—— Modify,D—— Delete。前言今天在图书馆看看自己以前的一些数学笔记的时候,对以前瞎存在的一些瞎鸡儿问题做了一些瞎鸡儿的想法,记录一下,方便以后慢慢懂了之后来推翻。一 分析首先,明白估计是来干嘛的:利用经验数据获得对未观测量的点态估计即,利用已有观测到的经验数据,对下一时刻的未进行...原创 2020-11-21 19:19:19 · 747 阅读 · 0 评论 -
数学-机器学习-降维
五 降维5.1 简介[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-vxUiq9b5-1590916355819)(数学-机器学习-降维/五+降维.png)]降维-思维导图5.2 内容5.2.1 背景前期提到,解决过拟合,有三种方法增加样本数正则化:限制参数空间,给他一些约束。这样在求参数x的矩阵一定可逆降维这里我们重点就是降维,降维分为三种方式直接降维:特征选择线性降维:PCA、MDS非线性降维:流形:LLE(局部线性嵌入),ISOMAP(等原创 2020-06-28 16:36:25 · 1463 阅读 · 0 评论 -
数学-机器学习-线性分类
四 线性分类4.1 简介4.1.1 思维导图线性分类-思维导图4.2.2 线性分类线性回归f(w,b)=wTx+b,x∈Rpf(w,b)=w^{T}x+b, x \in {R^p}f(w,b)=wTx+b,x∈Rp是机器学习的核心。线性回归有三个属性:线性、全局性、数据未加工。其他机器学习的方式都是打破这三个属性的某一个或某几个而提出的。这这些和线性回归共同构成了机器学习方法。线性分类是打破了线性回归的全局非线性,线性回归一般是通过线性回归函数得出结论后直接输出,而线性分类是将线性回归得到原创 2020-06-06 17:03:41 · 1057 阅读 · 0 评论 -
坐标变换与基变换到底哪个左乘,哪个右乘??
VersionDateByChangeCostA2020-3-18AYZPFirst Version三小时前言学习目的1) 坐标变换与基变换到底哪个左乘,哪个右乘。答案: 根本就是由基和坐标的维数决定其到底左乘还是右乘,纯粹的数学关系,想太多,吃太饱学习路线1) SLAM十四讲视频2) 优快云博客:https://blog.youkuaiyun.com...原创 2020-03-19 13:57:11 · 6493 阅读 · 0 评论 -
坐标变换怎么转?转的方向和矩阵正余弦正负的关系
前话:若 z 轴是旋转轴,则x轴是大哥轴,y轴是小弟轴若 y 轴是旋转轴,则x轴是大哥轴,z轴是小弟轴若 x 轴是旋转轴,则y轴是大哥轴,z轴是小弟轴[即,x,y,z按顺序排的大哥]正文:若大哥轴向小弟轴的正向转动,则,表面意思就是让二乘得到的结果最小,二乘又是什么呢,二乘就是两个数相乘,也就是平方,那么我们就可以轻松的得到最小二乘法的Loss Function:L(w)=∑i=1N(wTxi−yi)2L(w) = \sum\limits_{i = 1}^N { { {\left( { {w^T}{x_i}原创 2020-05-17 17:50:15 · 1346 阅读 · 0 评论 -
数学-机器学习-基础-概率-高斯分布
二 数学基础-概率-高斯分布2.1 思维导图简述数学基础-高斯分布思维导图2.2 内容2.2.1 高斯分布的最大似然估计A 已知数据条件:xix_{i}xi是p∗1维p*1维p∗1维的列向量,代表一组数据。XXX是N*p维矩阵,表示N组数据。高斯分布:一维高斯分布(以一维高斯分布为例)多维高斯分布B 求最大似然估计MLEC 解D 收获最大似然估计MLE: maximum likelihood estimation,由高斯提出,R.A Fisher发扬光大。MLE原创 2020-05-17 17:34:21 · 1307 阅读 · 0 评论 -
数学-机器学习-绪论
一 绪论1.1 思维导图简述机器学习思维导图1.2 频率派Vs贝叶斯派区别频率派,参数θ是常数,只不过它未知。贝叶斯派,参数θ是一个概率分布,它有先验知识θ∼p(θ)\theta \sim p(θ)θ∼p(θ)频率派是统计机器学习方法,就其本质而言,是一个优化问题。即将问题分为三步走:建立模型设计Loss Functionalgorithm贝叶斯派则是概率图模型,就其本质而言,是求积分的问题。而其中最常用的就是MonteCarlo MethodA 频率派:θ是一个未知的常原创 2020-05-17 17:15:00 · 400 阅读 · 0 评论 -
最大似然估计MLE和最大后验估计MAP
一 前言小伙为何会提出两个单词MLE和MAP呢。竟然是因为这…好吧,是因为不知道为何搞不懂这两个名词的意思。最早听到最大似然估计MLE是在考研数学里面,有一道概率题,要求一组数据的最大似然估计,然后强行记住了求法,具体的求法就是,现在也记不清了,讲个大概流程:先把题目给的那组数中,每个数出现的概率和它们自己相乘,求出似然函数L(θ)然后加个log运算,变成log(L(θ))然后就是求导,令求导结果为0解出想要的参数θ这才讲到MLE的疑问来源,那么,MAP又是怎么相识的呢,说到这个MAP原创 2020-05-15 20:43:31 · 442 阅读 · 0 评论 -
正则化(regularized)是什么?过拟合又是什么?
不哔哔,机器学习里的正则化,它是为了解决过拟合提出的。一 背景正则化是为了解决过拟合问题而提出的。regularization,让它正常,不要那么不正常了,那么这个不正常体现在那里呢,目前[2020-5-15]来看,不就是它过拟合了,不像正常的那样了。二 过拟合过拟合是什么呢?过拟合从字面意义上看,就是拟合过度了,什么才叫拟合过度呢?看下图。一个点,有好多情况,你得到的曲线,只适合某一种样本点,其他样本点适应性极差。从数据角度分析:首先,XXX是样本数据阵,它是一个N*P维的矩阵,N表示.原创 2020-05-15 17:05:32 · 1121 阅读 · 0 评论 -
机器学习学习数学笔记(序)
VersionDateByChangeA2020-4-24AYZPFirst Version前言学习目的1)觉得数学好肯定很装逼,所以我要好好学习数学,学习记录笔记2)听说学习数学可以使脑子变聪明3)学习数学,应该结合着应用来学,机器学习这个应用就很不错嘛学习路线1) B站大佬视频:shuhuai008. 【机器学习】【白板推导系列】【合集 1~2...原创 2020-04-24 09:06:35 · 331 阅读 · 0 评论 -
状态方程的本质
状态空间方程:利用当前状态去推导(估计)下一个状态X:当前状态A:系统状态转移矩阵,将当前状态转移至下一个状态B:系统控制量矩阵U:控制量,有时没有控制量,为0下一个状态:**导数(微分)的数学意义是斜率,在物理上,导数还有一个预测的意思,即一个量,求导后,表示的是下一个状态。**因此,X的导数表示下一个状态...原创 2018-11-04 21:12:39 · 6006 阅读 · 4 评论 -
协方差
定义:协方差(Covariance)在概率论和统计学中用于衡量两个变量的总体误差。其实,方差是协方差的一个特例。cov(X, Y) = E(X - EX)(Y - EY)简单点两个随机变量波动程度性质应用0...原创 2018-10-25 16:25:43 · 362 阅读 · 0 评论 -
偏差bias和方差variance和噪声
概念偏差bias: 描述的是预测值与真实值之间的差距,用来衡量模型对特定样本实例预测的一致性(或说变化)。方差variance:描述的是预测值的变化范围,离散程度(散开的程度),也就是离其真实值的距离,用来从总体上衡量预测值与实际值之间的差异简单点偏差bias是描述数据离期望距离远近的关系,离的越远,偏差越大,偏的越猛方差variance是描述数据分散程度程度,散的越开,方差越...转载 2018-10-25 15:59:45 · 415 阅读 · 0 评论