SVM支持向量机习题解答

以下习题,来自机器学习实战:基于Scikit-Learn和Tensorflow一书。

  1. 支持向量机的基本思想是什么?
    答:基本思想是拟合类别之间可能的、最宽的“街道”。它的目的是使决策边界之间最大间隔化,从而分隔出两个类别的训练实例。SVM在执行软间隔分类时,实际上是在完美分类和拟合最宽街道之间进行妥协(允许少量的实例最终落在街道上)。在训练非线性数据集时,记得使用核函数。
  2. 什么是支持向量?
    答: SVM训练完成后,位于街道上的实例被称为支持向量,也包括位于边界上的实例。决策边界完全由支持向量决定。非支持向量地实例则对决策边界没有任何影响。计算预测结果只涉及支持向量,而不涉及整个训练集
  3. 使用SVM时,对输入值进行缩放为什么重要?
    答:SVM拟合类别之间可能的、最宽的“街道”,所以如果训练集不经缩放,SVM将趋于忽略值较小的特征。
  4. SVM分类器在对实例进行分类时,会输出信心分数么?概率呢?
    答: SVM分类时输出的是测试实例与决策边界的距离,也可以将其用作信心分数。但这个分数不能直接转换为类别概率的估算。如果创建SVM时,在Scikit-Learn中设置probability=True,那么
    训练完成后,算法将使用逻辑回归对SVM分数进行校准(对训练数据额外进行5-折交叉验证的训练),从而得到概率值。这会给SVM添加predict_proba()predict_log_proba()两种方法
  5. 如果训练集有上千万个实例和几百个特征,你应该使用SVM原始问题还是对偶问题来训练模型?
    答:因为核SVM只能使用对偶问题,所以此问题只适用于线性支持向量机。原始问题的计算复杂度与训练实例的数量成正比,而其对偶形式的计算复杂度与某个介于m2和m3的数量成正比。所以,应使用原始问题。
  6. 假设你用RBF核训练了一个SVM分类器,看起来似乎对训练集拟合
### 关于支持向量机的课后练习解决方案 对于希望深入理解并实践支持向量机SVM)的学习者而言,获取高质量的课后习题及其解答至关重要。在吴恩达教授提供的机器学习课程中,关于支持向量机的内容被安排在第十二周的教学计划里[^1]。 #### 练习题目设计思路 为了帮助学生更好地掌握SVM理论基础以及实际应用技巧,在该章节设置了多项选择题形式的小测验来检验学员的理解程度。这些测试不仅涵盖了优化目标函数等核心概念,还包括如何调整参数C和核函数的选择等内容。 #### 实践项目建议 除了完成在线平台上的随堂练习外,还可以尝试参与Kaggle竞赛中的分类问题挑战赛;通过真实数据集的操作加深对算法原理的认识,并学会解决工程实现过程中遇到的各种难题。此外,GitHub上有许多开源的支持向量机案例可供参考学习。 ```python from sklearn import datasets from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler from sklearn.svm import SVC # 加载鸢尾花数据集作为示例 iris = datasets.load_iris() X, y = iris.data[:, [2, 3]], iris.target # 数据预处理 scaler = StandardScaler().fit(X) X_std = scaler.transform(X) # 划分训练集与测试集 X_train, X_test, y_train, y_test = train_test_split( X_std, y, test_size=0.3, random_state=1, stratify=y) # 使用线性核构建模型 svm = SVC(kernel='linear', C=1.0, random_state=1) svm.fit(X_train, y_train) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值