数学理论
visionshop
本ID为工业检测解决方案团队所有
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
先验分布/后验分布/似然估计)
对【先验分布/后验分布/似然估计】介绍的很清晰https://blog.youkuaiyun.com/qq_23947237/article/details/78265026上述文章对贝叶斯估计的内容介绍的不多https://www.cnblogs.com/xueliangliu/archive/2012/08/02/2962161.html...原创 2020-04-08 15:50:57 · 320 阅读 · 0 评论 -
数学--傅里叶分析-通俗易懂
作 者:韩 昊知 乎:Heinrich微 博:@花生油工人知乎专栏:与时间无关的故事谨以此文献给大连海事大学的吴楠老师,柳晓鸣老师,王新年老师以及张晶泊老师。转载的同学请保留上面这句话,谢谢。如果还能保留文章来源就更感激不尽了。 ——更新于2014.6.6,想直接看更新的同学可以直接跳到第四章————我保证这篇文章和你以前看过的所有文章都不同,这是12年还在果壳的时...转载 2019-01-13 20:38:44 · 676 阅读 · 1 评论 -
熵、交叉熵、相对熵(KL散度)
参考资料:https://www.jianshu.com/p/43318a3dc715?from=timeline&isappinstalled=0https://www.zhihu.com/question/41252833视频讲解https://www.youtube.com/watch?v=ErfnhcEV1O8如何理解K-L散度(相对熵)Kull...转载 2019-05-07 09:36:48 · 430 阅读 · 0 评论 -
主成分分析与奇异值分解
机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系wheeleast@gmail.com。也可以加我的微博:@leftnoteasy转载https://www.cnblogs.com/Left...转载 2019-05-29 21:09:22 · 885 阅读 · 0 评论 -
关于范数的介绍
作者:Faaany链接:https://www.zhihu.com/question/21868680/answer/136376374来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。要更好的理解范数,就要从函数、几何与矩阵的角度去理解,我尽量讲的通俗一些。我们都知道,函数与几何图形往往是有对应的关系,这个很好想象,特别是在三维以下的空间内,函数是几...转载 2019-06-08 01:17:30 · 1023 阅读 · 0 评论 -
矩阵求导
https://www.jianshu.com/p/4128e5b31fb4title: 闲话矩阵求导原始文件没有办法把latex公式正常显示,所以一个一个弄出来了,保留了原来的公式。原始文章来自《闲话矩阵求导》。矩阵求导,想必许多领域能见到。统计学,经济学,优化,机器学习等等,在对目标问题建立数学模型之后,问题往往被抽象为关于矩阵的优化问题。于是免不了需要对矩阵进行求导等操作。简单...转载 2019-06-08 12:17:22 · 251 阅读 · 0 评论 -
矩阵的迹以及迹对矩阵求导
ref: https://blog.youkuaiyun.com/u012421852/article/details/79594933矩阵的迹概念 矩阵的迹 就是 矩阵的主对角线上所有元素的和。 矩阵A的迹,记作tr(A),可知tra(A)=∑aii,1<=i<=n。定理:tr(AB) = tr(BA)证明定理:tr(ABC) = tr(C...转载 2019-06-08 12:18:25 · 12201 阅读 · 0 评论 -
详解SVD分解过程
转如何让奇异值分解(SVD)变得不“奇异”?红色石头 发布于 2018-08-29 分类:机器学习 阅读(144) 评论(0)如何让奇异值分解(SVD)变得不“奇异”?-红色石头的个人博客http://redstonewill.com/1529/在之前的一篇文章:通俗解释协方差与相关系数,红色石头为大家通俗化地讲解了协方差是如何定义的,以及如何直观理解协方差,并且比较了协...转载 2019-06-09 16:54:42 · 16238 阅读 · 3 评论 -
SVD详细介绍-理论公式证明及低秩近似和特征降维
第一部分:矩阵的奇异值分解:矩阵的奇异值分解证明过程中会用到五个定理,先作为补充知识展示这五个定理:定理一:A是对称矩阵,则不同特征值对应的特征向量是正交的。证明:设,是矩阵A的特征向量,且,,为,对应的特征向量,即:,则,因为A是对称矩阵,则所以,则:因为,所以:,即:和是正交的。证毕————————————————————...转载 2019-06-09 17:42:12 · 5891 阅读 · 1 评论 -
机器学习数学基础-信息论
线代专栏:https://zhuanlan.zhihu.com/p/30191876概率统计:https://zhuanlan.zhihu.com/p/30314229优化(上):https://zhuanlan.zhihu.com/p/30383127优化(下):https://zhuanlan.zhihu.com/p/30486793信息论及其他:https://zhuanla...转载 2018-11-23 19:29:56 · 861 阅读 · 0 评论 -
机器学习数学基础-优化(下)
线代专栏:https://zhuanlan.zhihu.com/p/30191876概率统计:https://zhuanlan.zhihu.com/p/30314229优化(上):https://zhuanlan.zhihu.com/p/30383127优化(下):https://zhuanlan.zhihu.com/p/30486793信息论及其他:https://zhuanla...转载 2018-11-23 19:27:40 · 1625 阅读 · 0 评论 -
Hausdorff距离
Hausdorff距离是描述两组点集之间相似程度的一种量度,它是两个点集之间距离的一种定义形式:假设有两组集合A={a1,…,ap},B={b1,…,bq},则这两个点集合之间的Hausdorff距离定义为 H(A,B)=max(h(A,B),h(B,A)) (1) 其中, h(A,B)=max(a∈A)min(b∈B)‖a-b‖ (2) h(...转载 2018-07-10 14:16:09 · 2708 阅读 · 0 评论 -
基于霍夫变换和广义霍夫变换的目标检测
上节讨论了基于阈值处理的目标检测,今天就来讨论下基于霍夫投票的目标检测,霍夫投票打算分成两个小节,第一个小节简单的说下霍夫变换和广义霍夫变换(generalized hough transform),他们投票的权重都是相等的,下一节讨论概率空间中的霍夫投票,顾名思义他们的投票权重是不确定的。 先来看下霍夫变换(hough transform),霍夫变换一般适用于有解析...转载 2018-07-17 16:51:32 · 2601 阅读 · 5 评论 -
Tps 相关资料
【1】 Thin Plate Spline editor - an example program in C++https://elonen.iki.fi/code/tpsdemo/Screenshot from the TPS demo Based mostly on "Approximation Methods for Thin Plate Spline Mappings an...转载 2018-08-09 10:24:20 · 597 阅读 · 0 评论 -
模板匹配-TPS
【1】matlab代码https://www.mathworks.com/matlabcentral/fileexchange/24315-warping-using-thin-plate-splines【2】url:https://blog.youkuaiyun.com/victoriaw/article/details/70161180数值方法——薄板样条插值(Thin-Plate Splin...转载 2018-07-31 15:03:19 · 1498 阅读 · 0 评论 -
机器学习中的范数规则化之(一)L0、L1与L2范数
原文链接 http://blog.youkuaiyun.com/zouxy09 今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核范数规则化。最后聊下规则化项参数的选择问题。这里因为篇幅比较庞大,为了不吓到大家,我将这个五个部分分成两篇博文。知识有限,以下都是我一些浅显的看法,如果理解存在错误,希望大家不吝指正。谢谢。 ...转载 2018-09-20 15:13:03 · 277 阅读 · 0 评论 -
机器学习数学基础-线性代数
转载出处:线代专栏:https://zhuanlan.zhihu.com/p/30191876概率统计:https://zhuanlan.zhihu.com/p/30314229优化(上):https://zhuanlan.zhihu.com/p/30383127优化(下):https://zhuanlan.zhihu.com/p/30486793信息论及其他:https://...转载 2018-11-23 19:21:51 · 996 阅读 · 0 评论 -
机器学习数据基础-概率统计
转载出处:线代专栏:https://zhuanlan.zhihu.com/p/30191876概率统计:https://zhuanlan.zhihu.com/p/30314229优化(上):https://zhuanlan.zhihu.com/p/30383127优化(下):https://zhuanlan.zhihu.com/p/30486793信息论及其他:https://...转载 2018-11-23 19:23:23 · 1548 阅读 · 0 评论 -
机器学习数学基础-优化(上)
线代专栏:https://zhuanlan.zhihu.com/p/30191876概率统计:https://zhuanlan.zhihu.com/p/30314229优化(上):https://zhuanlan.zhihu.com/p/30383127优化(下):https://zhuanlan.zhihu.com/p/30486793信息论及其他:https://zhuanla...转载 2018-11-23 19:25:33 · 709 阅读 · 0 评论 -
深入浅出最大似然估计
最大似然估计是利用已知的样本的结果,在使用某个模型的基础上,反推最有可能导致这样结果的模型参数值。深入浅出最大似然估计例子1:抽球举个通俗的例子:假设一个袋子装有白球与红球,比例未知,现在抽取10次(每次抽完都放回,保证事件独立性),假设抽到了7次白球和3次红球,在此数据样本条件下,可以采用最大似然估计法求解袋子中白球的比例(最大似然估计是一种“模型转载 2017-12-26 10:58:50 · 520 阅读 · 0 评论
分享