博主只是初学机器学习的新人一枚,这篇博客旨在分享一下吴恩达机器学习课程编程练习6的答案,同时也是相当于自己对这一章的内容做一个回顾,让自己理解的更加的透彻,理性讨论,不喜勿喷
本章的主题是Support Vector Machines(SVM),即支持向量机,SVM是一类按照监督学习方式对数据进行二元分类的广义线性分类器,与前面提到的逻辑回归和神经网络类似,而SVM与二者相比,在学习复杂的非线性方程时,提供了一种更为清晰,更加强大的方法,线性回归、逻辑回归、神经网络和SVM的总结可以参考下列博文(侵删):线性回归、逻辑回归、神经网络、SVM总结
-
SVM with Linear Kernels
采用的是“linear kernel”,也称作No kernel,即没有核函数,简单的执行例如θTx>0时则有y=1的操作。展示了在SVM训练中C的作用,以下三张图依次为数据集、C=1时分类图、C=100时分类图:
从这三张图中我们似乎可以得出一个比较直观的结论—当C的值比较小时,SVM的分类结果更趋向于全局间距最大化,而当C的值较大时,SVM的结果更趋向于局部的最优解,这看起来似乎和练习5中的高方差结果类似。
事