机器学习第十周 支持向量机SVN
学习目标
知识点描述:致敬真神:支持向量机
学习目标:
- SVM算法原理及数学推导
- * SVM算法中的核函数
- * SVM算法解决分类问题及回归问题
学习内容
学习ING
支持向量机SVM:
支持向量:将最优决策边界向上或向下平移,在遇到第一个点时停下来,这个点被称为支持向量。支持向量到决策边界的距离是d,这两条后移的直线的间隔2d被称为最大间隔Margin.
支持向量:就是支撑着两条平移边界的点
点
到
直
线
的
距
离
:
d
=
∣
A
x
+
B
y
+
C
∣
A
2
+
B
2
点到直线的距离:d=\frac{|Ax+By+C|}{\sqrt{A^2+B^2}}
点到直线的距离:d=A2+B2∣Ax+By+C∣
扩 展 到 n 维 空 间 : 点 到 w T x + b = 0 , w 是 n 维 向 量 , b 是 截 距 : d = w T + b ∣ ∣ w ∣ ∣ , ∣ ∣ w ∣ ∣ 为 向 量 的 模 扩展到n维空间:点到w^Tx+b=0,w是n维向量,b是截距:d=\frac{w^T+b}{||w||} ,||w||为向量的模 扩展到n维空间:点到wTx+b=0,w是n维向量,b是截距:d=∣∣w∣∣wT+b,∣∣w∣∣为向量的模
最大化margin,
m
a
x
2
∣
w
T
x
+
b
∣
∣
∣
w
∣
∣
,
也
就
是
m
a
x
2
∣
∣
w
∣
∣
max\frac{2|w^Tx+b|}{||w||},也就是max\frac{2}{||w||}
max∣∣w∣∣2∣wTx+b∣,也就是max∣∣w∣∣2
转 换 后 , 求 m i n { 1 2 w T w } , 条 件 y ( i ) ( w T x ( i ) + b ) ≥ 1 转换后,求min\{\frac{1}{2}w^Tw\}, 条件 y^{(i)}(w^Tx^{(i)}+b)\geq 1 转换后,求min{21wTw},条件y(i)(wTx(i)+b)≥1
推导公式:
在考虑泛化时,选取更佳的分类模型.
打卡链接:
【腾讯文档】机器学习小组第十周(20200427-20200503)
https://docs.qq.com/form/fill/DRlJUT3FQcmJSSWty?_w_tencentdocx_form=1