Q: 为什么要把原问题转换为对偶问题?
A:因为原问题是凸二次规划问题,转换为对偶问题更加高效。
并且可以引入核函数
Q: 为什么求解对偶问题更加高效?
A:因为只用求解alpha系数,而alpha系数只有支持向量才非0,其他全部为0.
Q:alpha系数有多少个?
A:样本点的个数
Q: SVM怎么防止过拟合?
A:引入松弛变量
Q: LR和SVM有什么不同吗?
A:
(1)分类思想不同:LR是基于概率求得,SVM是基于最大化间隔
(2)SVM决策面只由少量的支持向量决定,而LR的话是所有样本都会参与决策面的更新
(3)逻辑回归通过sigmoid函数缩小了远离分类超平面那些点的信息,而SVM直接忽略了那些点的信息
Q:. 什么是结构风险?
A:结构风险=经验风险(模型误差)+置信风险(泛化能力)
Q:什么是支持向量?
A:最大化间隔在正样本和负样本集合上各形成一个边界,位于这两个边界上的样本就是支持向量。后续新样本的分类就只依赖于这些支持向量的信息,从而降低了存储和计算的复杂性。
Q:为什么SVM要引入核函数?
A:当样本在原始空间线性不可分时,可将样本从原始空间映射到一个更高维的特征空间,使得样本在这个特征空间内线性可分