
stitp项目
Captain_NJUPT
通信行业社畜,从不屈服!
展开
-
基于支持向量机的文本分类算法研究(三)—— 核函数文本分类性能评价指标(stitp项目)
3 核函数评价指标 核函数评价指标,即准确率(P)、召回率®和 F1 值,通过这几个数值,可以直观的反映核函数的性能,也使得支持向量机核函数评价科学化、准确化。本次实验函数从特征值 1000循环五十次得出运行文件,得到每个核函数准确率(P)、召回率®和 F1 值后在取得均值。 3.1 R值:查全率(Recall rate) 查全率(Recall rate),又称召回率,是指从数据库中检测到的相关信息数量与总量的比率。召回率的绝对值难以计算,只能根据数据库的内容和数量进行估计。召回率是评价某个搜索系统从文献原创 2020-06-05 15:09:17 · 1122 阅读 · 0 评论 -
基于支持向量机的文本分类算法研究(二) —— 支持向量核函数介绍(stitp项目)
2 支持向量机核函数 支持向量机的理论基础(凸二次规划)决定了它最终求得的为全局最优值而不是局部最优值,也保证了它对未知样本的良好泛化能力。支持向量机是建立在统计学习理论基础之上的新一代机器学习算法,支持向量机的优势主要体现在解决线性不可分问题,它通过引入核函数,巧妙地解决了在高维空间中的内积运算,从而很好地解决了非线性分类问题。 构造出一个具有良好性能的SVM,核函数的选择是关键.核函数的选择包括两部分工作:一是核函数类型的选择,二是确定核函数类型后相关参数的选择。 2.1线性核(Linear Ker原创 2020-06-05 14:42:34 · 758 阅读 · 0 评论 -
基于支持向量机的文本分类算法研究(一) —— 支持向量机及核函数背景(stitp项目)
1 前言 上世纪90年代,Vapnik率先提出了用于分类的支持向量机方法(也称支持向量分类算法),接下的几年中,又提出了用于回归的支持向量机方法(也称支持向量回归算法)。支持向量机(SVM)是在统计学习理论基础上提出的一种新的机器学习方法,它采用结构风险最小化原则,根据有限样本信息,在模型的学习能力和复杂性之间寻求最佳折衷,以获得最佳的推广能力。而无论是支持向量分类算法还是支持向量回归法均是建立在统计学习理论基础之上的,遵循结构风险最小化原则,根据有限样本信息,在模型的复杂性和学习能力之间寻求最佳折中,以原创 2020-06-05 14:33:38 · 977 阅读 · 0 评论