
机器学习理论
qq_40932139
程序员的自我修养
展开
-
特征提取与特征选择
一.特征提取和特征选择的区别特征选择和降维(特征提取)有着些许的相似点,这两者达到的效果是一样的,就是试图去减少特征数据集中的属性(或者称为特征)的数目;但是两者所采用的方式方法却不同:降维的方法主要是通过属性间的关系,如组合不同的属性得到新的属性,这样就改变了原来的特征空间;而特征选择的方法是从原始特征数据集中选择出子集,是一种包含的关系,没有更改原始的特征空间。二.常用的特征选择方法有哪些...转载 2020-03-06 12:05:36 · 1328 阅读 · 0 评论 -
集成学习
一、构建组合分类器的好处(1)提升模型精度:整合各个模型的分类结果,得到更合理的决策边界,减少整体错误呢,实现更好的分类效果;(2)处理过大或过小的数据集:数据集较大时,可将数据集划分成多个子集,对子集构建分类器;当数据集较小时,通过自助采样(bootstrap)从原始数据集采样产生多组不同的数据集,构建分类器。(3)若决策边界过于复杂,则线性模型不能很好地描述真实情况。因此,现对于特定区域...原创 2019-11-30 10:20:52 · 535 阅读 · 0 评论