
机器学习
俭任G
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
李航《统计学习方法》AdaBoost算法(课后习题)
AdaBoost:https://blog.youkuaiyun.com/v_JULY_v/article/details/40718799提升树:https://www.cnblogs.com/daguankele/p/6557328.html强可学习的:一个概念如果存在一个多项式的学习算法能够学习它,并且正确了很高,那么,这个概念是强可学习的;弱可学习的:一个概念如果存在一个多项式的学习算法能...原创 2019-01-07 20:12:15 · 8035 阅读 · 3 评论 -
统计学习方法——隐马尔可夫模型HMM
参考博客:https://www.cnblogs.com/skyme/p/4651331.htmlhttps://blog.youkuaiyun.com/u014688145/article/details/53012400隐马尔可夫模型参数三要素:初始状态概率,状态转换概率A,观测概率B初始状态概率:=()=状态转换概率矩阵A:, N是可能的状态数时刻处于状态的条件下...原创 2019-02-02 15:24:32 · 205 阅读 · 0 评论 -
逻辑回归损失函数求导过程
逻辑logistic回归代价函数梯度下降推导过程:log 就是 ln原创 2018-12-19 11:20:25 · 411 阅读 · 2 评论 -
统计学习方法(九)EM算法
参考博客:https://www.cnblogs.com/bigmoyan/p/4550375.htmlhttps://en.wikipedia.org/wiki/Expectation%E2%80%93maximization_algorithmEM:expectation maximization 期望极大算法用于含有隐变量的概率模型参数的极大似然估计,或极大后验概率估计主要分...转载 2019-01-30 19:54:40 · 361 阅读 · 0 评论 -
L1 L2正则化为什么可以解决过拟合问题
转自:https://blog.youkuaiyun.com/liuhongyue/article/details/83141965正则化方法:防止过拟合,提高泛化能力在训练数据不够多时,或者overtraining时,常常会导致overfitting(过拟合)。其直观的表现如下图所示,随着训练过程的进行,模型复杂度增加,在training data上的error渐渐减小,但是在验证集上的error却...转载 2019-03-03 15:20:07 · 3962 阅读 · 4 评论 -
k-means 聚类的原理以及缺点及对应的改进
转自:https://www.cnblogs.com/yumoye/p/10332138.htmlhttps://blog.youkuaiyun.com/wxf_ou/article/details/75634107传统K-Means算法流程 首先我们看看K-Means算法的一些要点。 1)对于K-Means算法,首先要注意的是k值的选择,一般来说,我们会根据对数据的先验经验选择...转载 2019-03-06 16:31:32 · 9571 阅读 · 1 评论 -
K-Means聚类方法与EM算法之间的关系
初始目的 将样本分成K个类,其实说白了就是求一个样本例的隐含类别y,然后利用隐含类别将x归类。由于我们事先不知道类别y,那么我们首先可以对每个样例假定一个y吧,但是怎么知道假定的对不对呢?怎样评价假定的好不好呢? 我们使用样本的极大似然估计来度量,这里就是x和y的联合分布P(x,y)了。如果找到的y能够使P(x,y)最大,那么我们找到的y就是样例x的最佳类别了,x顺手就聚类了。但是我们...转载 2019-03-06 20:51:18 · 1671 阅读 · 0 评论 -
(机器学习)异常检测算法
异常检测算法流程:异常检测与监督学习的差异:多元高斯模型和原始模型之间的区别?原始模型使用较多,若存在特征相关情况可以采用x1/x2方式;计算成本较低;有较小的相关性训练集也没有问题。多元高斯模型,使用较少,在捕捉特征间的关系有优势;需要计算sigma的逆矩阵,计算量较大;有样本数量大于特征数量的限制,保证sigma矩阵可逆(同PCA)原始模型相乘也可以看做是...转载 2019-03-11 15:01:35 · 400 阅读 · 0 评论 -
最大似然估计与最大后验概率区别
https://blog.youkuaiyun.com/u011508640/article/details/72815981最大后验概率比最大似然估计多了先验概率对于这个函数:P(x|θ)输入有两个:x表示某一个具体的数据;θ表示模型的参数。如果θ是已知确定的,x是变量,这个函数叫做概率函数(probability function),它描述对于不同的样本点x,其出现概率是多少。...转载 2019-03-28 19:30:03 · 846 阅读 · 0 评论