通过本篇文章可以对机器学习ML的常用算法有个常识性的认识,没有代码,没有复杂的理论推导,就是图解一下,知道这些算法是什么,它们是怎么应用的,例子主要是分类问题。
算法如下:
- 决策树
- 随机森林算法
- 逻辑回归
- SVM
- 朴素贝叶斯
- K最近邻算法
- K均值算法
- Adaboost 算法
- 神经网络
- 马尔可夫
1. 决策树
根据一些 feature 进行分类。每个节点就对某一个 feature 进行判断,进而将数据分为两类;对分成的两类再继续根据 feature 进行判断 。这些 feature 的先后和层级是根据已有数据学习出来的,通过学习形成了一棵树。当投入新数据的时候,就可以根据这棵树上的问题,一层一层判断,最后将数据分类到合适的叶子上。
2. 随机森林
在源数据中随机选取数据,组成几个子集(subset 1,subset 2,subset 3......)。通过矩阵的方式来表示就是:S 矩阵是源数据,有 1-N 条数据,A B C 是 feature,最后一列C是类别。
由 S 随机生成 M 个子矩阵(S1, S2...Sm)。这 M 个子集得到 M 个决策树(Decision tree1, Decision tree2...Decision treem)。将新数据投入到这 M 个树中,得到 M 个分类结果(class1, class2...classm),计数看预测成哪一类的数目最多,就将此类别作为最后的预测结果
3. 逻辑回归
当预测目标是概率这样的,值域需要满足大于等于0,小于等于1的,这个时候单纯的线性模型是做不到的,因为在定义域不在某个范围之内时,值域也超出了规定区间(左),所以此时需要右图的形状的模型会比较好。