特征选择
文章平均质量分 58
小桥流水---人工智能
一切皆有可能!
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
参数 stratify=y 在训练集和测试集划分中的作用!!
是否加stratify说明❌ 不加数据随机打乱,可能某些类别偏斜甚至丢失✅ 加stratify=y保持标签分布一致,适合分类问题,强烈建议使用。原创 2025-04-15 08:56:38 · 360 阅读 · 0 评论 -
PCA(主成分分析)不是“筛掉”特征,而是“合并”、“压缩”特征。
特征选择是 “在原来的变量中挑出重要的”;PCA是 “把所有变量揉合在一起,提取出几个最能代表数据的信息方向”。原创 2025-04-14 15:05:53 · 711 阅读 · 0 评论 -
大白话解释:PCA 降维(主成分分析,Principal Component Analysis)
这些 10 个属性里,其实有几个是重复、冗余的。我们可以把它们合并成‘综合指标’,只用 2~3 个就能代表整个数据的大部分信息。就像你拍一张照片时,虽然把三维的世界压缩成二维图像,但我们依然能看清楚物体形状 —— PCA 就干了类似的事情!原创 2025-04-14 14:59:16 · 608 阅读 · 0 评论 -
通俗的理解:MIC相关系数(最大信息系数,Maximal Information Coefficient)
MIC 就像一个万能探测器,它不关心关系是不是直的,只要你俩之间有“规律”,它就能发现。原创 2025-04-14 14:11:48 · 653 阅读 · 0 评论 -
通俗地解释一下 Pearson 相关系数
它是一个用来衡量两个变量之间线性关系强弱的指标,你可以把它理解成是“变量之间是否一起涨、一起跌”的一种数学量。Pearson 相关系数就是在告诉我们:两个变量是不是一起涨跌,以及这种一起涨跌的关系有多强。原创 2025-04-14 14:02:58 · 607 阅读 · 0 评论 -
详细解释:k ≈ 3 对应 99.7% 置信度
出现在统计学或异常检测中,和有关。原创 2025-04-13 20:46:06 · 852 阅读 · 0 评论 -
ReliefF 的原理
如果同类越像、异类越不像,就说明这个特征越有区分能力,权重越高。原创 2025-04-13 19:55:44 · 985 阅读 · 0 评论 -
Relief法**是一种非常经典、有效的**特征选择算法
是一种非常经典、有效的,尤其适用于。它能在不依赖模型的前提下,根据样本间的距离和类别差异,判断每个特征对分类任务的“区分能力”。原创 2025-04-13 18:30:28 · 1124 阅读 · 0 评论
分享