算法
大道上的头陀
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
极大似然估计(Maximum likelihood estimation)
Table of Contents一、思想理解二、求解过程三、总结一、思想理解极大似然估计法(the Principle of Maximum Likelihood )由高斯和费希尔(R.A.Figher)先后提出,是被使用最广泛的一种参数估计方法,该方法建立的依据是直观的最大似然原理。总结起来,最大似然估计的目的就是:利用已知的样本结果,反推最有可能(最大概率)导致这...原创 2019-03-19 15:36:05 · 26888 阅读 · 1 评论 -
精确率、召回率
先给出西瓜书上的定义:精确率——查准率——precision 召回率——查全率——recall可以很容易看出, 所谓 TRUE/FALSE 表示从结果是否分对了, Positive/Negative 表示我们认为的是"正例" or "反例".再加上准确率:此外还有值,是精确率和召回率的调和均值:精确率和召回率都高时,值也会高。精确率是针对我们预测结果而言的,它表...原创 2019-03-19 17:16:04 · 703 阅读 · 0 评论 -
简易解说拉格朗日对偶(Lagrange duality)
转载,看着挺不错的:http://www.cnblogs.com/90zeng/和《统计学习方法》李航附录部分的讲解相似,看《统计学习方法》也okTable of Contents1.原始问题2.对偶问题3. 原始问题与对偶问题的关系4. KKT 条件5. 总结引言:尝试用最简单易懂的描述解释清楚机器学习中会用到的拉格朗日对偶性知识,非科班出身,如有数学专业博友,望...转载 2019-03-15 14:40:08 · 936 阅读 · 0 评论 -
ORB算法解读
Table of Contents绪论1.特征点的检测2.特征点的描述2.1计算特征描述子2.2理想的特征点描述子应该具备的属性3.特征点的匹配总结本文章讲解简单明了,特转载,原文在:http://blog.youkuaiyun.com/yang843061497/article/details/38553765绪论假如我有2张美女图片,我想确认这2张图片中美女是否是同...转载 2019-04-08 15:39:57 · 10324 阅读 · 4 评论 -
通俗理解泰勒公式
本博客只用于自身学习,如有错误,虚心求教!!!在维基百科上的解释在数学中,泰勒公式(英语:Taylor's Formula)是一个用函数在某点的信息描述其附近取值的公式。这个公式来自于微积分的泰勒定理(Taylor's theorem),泰勒定理描述了一个可微函数,如果函数足够光滑的话,在已知函数在某一点的各阶导数值的情况之下,泰勒公式可以用这些导数值做系数构建一个多项式来近似函数在...原创 2019-04-14 22:31:50 · 29405 阅读 · 7 评论 -
梯度下降法
本博客只用于自身学习,如有错误,虚心求教!!!写这篇博客的原因为什么局部下降最快的方向就是梯度的负方向呢?之前跟着吴恩达的机器学习视频学习的时候,只是跟着学,完全没有想到这些,之后再反过来看的时候,就会有这种问题。梯度下降法的公式: 可...原创 2019-04-15 10:17:39 · 545 阅读 · 0 评论 -
牛顿法和拟牛顿法
Table of Contents1 牛顿法2 拟牛顿法3 DFP算法4 BFGS 算法5L-BFGS 算法参考文献转载,写的非常棒,原文见:https://blog.youkuaiyun.com/itplus/article/details/21896453《统计学习方法》里也有详细的讲解,但没有此处讲解的详细。1 牛顿法2 拟牛顿法...转载 2019-04-15 11:28:06 · 474 阅读 · 0 评论 -
常见的几种最优化方法(梯度下降法、牛顿法、拟牛顿法、共轭梯度法等)
转载,原文见:http://www.cnblogs.com/maybe2030/p/4751804.html我们每个人都会在我们的生活或者工作中遇到各种各样的最优化问题,比如每个企业和个人都要考虑的一个问题“在一定成本下,如何使利润最大化”等。最优化方法是一种数学方法,它是研究在给定约束之下如何寻求某些因素(的量),以使某一(或某些)指标达到最优的一些学科的总称。随着学习的深入,博主越来越发现...转载 2019-04-15 11:39:42 · 792 阅读 · 0 评论 -
正则化
Table of Contents简介插播1 Lp范数2 L2 正则化3 L1 正则化4 L1正则化和L2正则化的区别5 L1 相比于 L2 为什么容易获得稀疏解?本博客只用于自身学习,如有错误,虚心求教!!!简介正则化其实就是在原来的问题的基础上,加以某种限制或约束,让原来的问题能够达到某种目的。机器学习和深度学习中正则化则是防止模型过拟合(训练误差...原创 2019-04-18 22:39:18 · 439 阅读 · 0 评论
分享