- 博客(7)
- 资源 (1)
- 收藏
- 关注
原创 贝叶斯
做bagging和boosting不好Nb和LR的异同:相似点:逻辑回归是基于损失函数最小化,求梯度下降法贝叶斯:跳过loss函数,直接得出权重因为贝叶斯比逻辑回归多了一个条件独立假设。LR是判别模型,NB是生成模型。贝叶斯网络:反直觉,大量的先验知识。
2017-11-28 15:01:40
243
原创 决策树与随机森林
决策树:过拟合,可以减枝,随机森林。bootstrapingbagging选n个样本,建立n个分类器,类似于民主政治。adaboost: 相当于精英政治。随机森林:从样本集中用bootstrap采样选出n各样本从所有属性中随机选取k个属性,建立决策树重复m次,建立m各决策树形成随机森林,投票表决属于哪一类用其他分类器也可以叫做随机森林 对于样
2017-11-28 11:02:00
313
原创 聚类
k—means比层次聚类要快k—means用的多高斯混合模型多个高斯分布线性加权在一起GMM : 可理解性好,速度快,学术上比较直观,时间复杂度为O(ktn)t是迭代次数,k为聚类的个数,n为样本可以扩展到其他分布的混合,因为高斯分布可以拟合任何其他的分布。劣势: 初始值敏感,非凸函数则无能为力。层次聚类的时间复杂度为O(n3)
2017-11-16 11:29:57
366
原创 深度学习基础
开发包: scikit-neuralnetworktheanotorchdeepleaining4j环境配置:ubuntuEclipsePyDevCUDA
2017-11-11 10:29:15
152
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅