降维技术zz

文本分类面临高维特征带来的计算复杂度及过拟合等问题,本文介绍了解决这些问题的两种降维技术:特征选择和特征提取。特征选择通过评分排序保留关键特征;特征提取则通过构建新的特征集实现降维。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

降维技术

文本分类的一个核心难题就是特征空间的高维性,一个文档集中的特征项动辄就是上万维,这么高的维数特征不仅带来极高的计算复杂度,产生维度灾难,也给分类过程带来了大量的噪音,且容易产生过度拟合的问题,因而有必要简化原始的特征集,这种简化技术就是降维技术。 降维技术主要分成两大类:特征选择和特征提取。

特征选择又称独立评估法,其目的是滤除携带信息量较少的词,只保留对分类贡献较大的词。 在特征选择时一般都是利用某种评价函数,独立地对每个原始特征项进行评分,然后按分值的高低将它们排序,从中选取若干个分值最高的特征项,以达到减少总特征数的目的。 因此,评价函数的好坏是影响特征选择的关键问题。特征选择一般有:文档频率、信息增益、期望交叉熵、互信息、文本证据权、奇率、x2 统计量等。 [按此方式选择得到的前K个分量,组合起来并不一定就是最好的特征; 因为这K个特征之间通常存在相关]

特征提取又称综合评估法,它是将原有的特征集T 加以联系和转化以构建新特征集T'的过程,一般| T' |《| T | ,因而可达到降维的效果;特征提取的思想是:由于一词多义、多词一义的现象大量存在于文本信息中,导致文本的原始项可能不是文档内容表示的最佳维度。特征提取就是试图通过重构新项来避免上述问题。 一般有项聚类、潜在语义索引(LSI)、多维尺度变换、自组织特征映射等


本文来自优快云博客,转载请标明出处:http://blog.youkuaiyun.com/javatalk/archive/2007/11/29/1906958.aspx

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值