【机器学习-周志华】阅读笔记-第六章-支持向量机

本文深入探讨了支持向量机(SVM)的核心概念,包括如何寻找最佳划分超平面以实现样本分类,介绍了点到平面距离的计算方法,以及SVM算法的数学原理,通过实例解释了如何确定w和b参数,使最接近超平面的样本点远离平面。

第六章支持向量机着实花了我不少功夫,以下是笔者的理解,如有谬误,欢迎指正。

目标:给定训练样本集,分类学习最基本的想法是基于训练集D在样本空间中找到一个划分超平面,将不同类别的样本分开,但能将训练样本分开的划分超平面可能有很多,支持向量机算法,目的就是为了找到最好的划分超平面。

预备知识:点x到面 s: \omega x+b=0距离d的计算

首先,对于平面上的两个点:x',x'',均满足平面方程,有:

\omega x'+b=0 , \omega x''+b=0

distance = \frac{\omega^{T}}{\|\omega\|}\left(x-x^{\prime}\right)

原理:将x,x'构成的向量投影到单位法向量\frac{\omega^{T}}{\|\omega\|}上,得到点x到平面s 的距离

将上述两行公式合并化简得:

x^{\prime}=-\frac{b}{\omega^{T}}

distance = \frac{1}{\|\omega\|}\left|\omega^{T} x+b\right|

由此我们得到了如何计算点到平面的距离计算方式,回到刚刚的问题,究竟什么是最好的划分超平面呢?支持向量机认为,最好的划分超平面为:离该平面最近的两类点,能够尽可能得远离这个平面。换而言之,就是要找到一个平面,能够在两类样本中,找到“最中间”的平面,使该平面距离各类最边缘的样本点(们)最远。

举个栗子,简单来说,就是首先找到与平面距离最近的点(们),然后尽可能让这些点与平面的距离远一些(确定w和b)

为了在接下来运算中更好地推导,我们需要有如下定义:

对于样本x,当x为正类时,yi(划分结果标记)为+1(正一);当x为负类时,yi为-1。目的:为了去掉distance中的绝对值符号(在不改变值的情况下)

我们将distance变为:

distance = \frac{1}{\|\omega\|}y(\omega^{T} x+b)

此时,我们的优化目标为:

argmax\left\{\frac{1}{\|w\|} \min \left[y_{i} \cdot\left(\omega^{T} \cdot\left(x_{i}\right)+b\right)\right]\right\}

解释:min为了确定i,找到距离划分超平面最近的点,argmax为了确定w和b,找到使距离最大的面

接下来我们将问题转化:

我们通过缩放,使y_{i} \cdot\left(\omega^{T} \cdot\left(x_{i}\right)+b\right)\geqslant 1,则后面部分最小值为1,我们可以得到转化后的优化目标:

argmax\frac{1}{\|w\|}\ and\ y_{i} \cdot\left(\omega^{T} \cdot\left(x_{i}\right)+b\right)\geqslant 1

在通过变换,可将其向拉格朗日乘子法靠拢

即:\min _{(\omega, b)} \frac{1}{2}\|\omega\|^{2}\ and\ 1-y_{i}\left(\omega^{T}\left(x_{i}\right)+b\right) \leq 0

由此我们将问题转化为求目标函数L的极值:至于为啥能这样转化,大家可以看看这个链接

L(\boldsymbol{w}, b, \boldsymbol{\alpha})=\frac{1}{2}\|\boldsymbol{w}\|^{2}+\sum_{i=1}^{m} \alpha_{i}\left(1-y_{i}\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_{i}+b\right)\right)

如此一来,问题便变得简单起来,L分别对w和b偏导,使其等于零,得到如下两个式子:

\begin{array}{l} {\boldsymbol{w}=\sum_{i=1}^{m} \alpha_{i} y_{i} \boldsymbol{x}_{i}} \\ {0=\sum_{i=1}^{m} \alpha_{i} y_{i}} \end{array}

将他们带入L,我们得到了新的对偶问题:

\max _{\boldsymbol{\alpha}} \sum_{i=1}^{m} \alpha_{i}-\frac{1}{2} \sum_{i=1}^{m} \sum_{j=1}^{m} \alpha_{i} \alpha_{j} y_{i} y_{j} \boldsymbol{x}_{i}^{\mathrm{T}} \boldsymbol{x}_{j}

\begin{array}{ll} {\text { s.t. }} & {\sum_{i=1}^{m} \alpha_{i} y_{i}=0} \\ {} & {\alpha_{i} \geqslant 0, \quad i=1,2, \ldots, m} \end{array}

我们需要在满足下面条件的情况下,选取一个a,使得该式最大

这里需注意,我们需要满足KKT条件,在这个的链接中也有提到啥是KKT条件

\left\{\begin{array}{l} {\alpha_{i} \geqslant 0} \\ {y_{i} f\left(\boldsymbol{x}_{i}\right)-1 \geqslant 0} \\ {\alpha_{i}\left(y_{i} f\left(\boldsymbol{x}_{i}\right)-1\right)=0} \end{array}\right.

如此一来,我们便能够确定a,进而根据约束条件确定w和b

根据约束条件,我们不难理解其几何意义:

对任何训练样本({x_{i},{y_{i}),总有{a_{i}=0{y_{i} f\left(\boldsymbol{x}_{i}\right)=1},如果是a为0,则该样本不会在求和式中出现,也就不会对fx有任何影响,如果a大于零,则对应的有{y_{i} f\left(\boldsymbol{x}_{i}\right)=1},对应的样本点在最大间隔边界上,是一个支持向量。这就是“支持向量机”名字的由来,目的是为了找到支持划分超平面的向量,最终模型只与支持向量有关。

纸上推导过程见下图:其包含了后面延伸的松弛因子和核函数

若有谬误,不胜感激!

本章主要介绍了概率图模型的基本概念和常见类型,以及如何利用Python实现这些模型。下面是一些笔记和代码示例。 ## 概率图模型的基本概念 概率图模型是一种用于表示和处理不确定性的图形化模型,它能够将一个复杂的联合概率分布表示为多个简单的条件概率分布的乘积形式,从而简化概率推理和模型学习的过程。概率图模型主要包括两种类型:有向图模型和无向图模型。 有向图模型(Directed Acyclic Graph, DAG)又称为贝叶斯网络(Bayesian Network, BN),它用有向边表示变量之间的因果关系,每个节点表示一个随机变量,给定父节点的条件下,每个节点的取值都可以用一个条件概率分布来描述。有向图模型可以用贝叶斯公式进行概率推理和参数学习。 无向图模型(Undirected Graphical Model, UGM)又称为马尔可夫随机场(Markov Random Field, MRF),它用无向边表示变量之间的相互作用关系,每个节点表示一个随机变量,给定邻居节点的取值,每个节点的取值都可以用一个势函数(Potential Function)来描述。无向图模型可以用和有向图模型类似的方法进行概率推理和参数学习。 ## 概率图模型的Python实现 在Python中,我们可以使用`pgmpy`库来实现概率图模型。该库提供了一个简单而强大的接口来定义和操作概率图模型,支持有向图模型和无向图模型的构建、概率推理、参数学习等功能。 ### 有向图模型 以下是一个简单的有向图模型的示例: ```python from pgmpy.models import BayesianModel model = BayesianModel([('A', 'B'), ('C', 'B'), ('B', 'D')]) ``` 其中,`BayesianModel`是有向图模型的类,`('A', 'B')`表示A节点指向B节点,即B节点是A节点的子节点,依此类推。我们可以使用以下代码查看模型的结构: ```python print(model.edges()) # 输出:[('A', 'B'), ('B', 'D'), ('C', 'B')] ``` 接下来,我们可以为每个节点定义条件概率分布。以下是一个简单的例子: ```python from pgmpy.factors.discrete import TabularCPD cpd_a = TabularCPD(variable='A', variable_card=2, values=[[0.2, 0.8]]) cpd_c = TabularCPD(variable='C', variable_card=2, values=[[0.4, 0.6]]) cpd_b = TabularCPD(variable='B', variable_card=2, values=[[0.1, 0.9, 0.3, 0.7], [0.9, 0.1, 0.7, 0.3]], evidence=['A', 'C'], evidence_card=[2, 2]) cpd_d = TabularCPD(variable='D', variable_card=2, values=[[0.9, 0.1], [0.1, 0.9]], evidence=['B'], evidence_card=[2]) model.add_cpds(cpd_a, cpd_c, cpd_b, cpd_d) ``` 其中,`TabularCPD`是条件概率分布的类,`variable`表示当前节点的变量名,`variable_card`表示当前节点的取值个数,`values`表示条件概率分布的值。对于有父节点的节点,需要指定`evidence`和`evidence_card`参数,表示当前节点的父节点和父节点的取值个数。 接下来,我们可以使用以下代码进行概率推理: ```python from pgmpy.inference import VariableElimination infer = VariableElimination(model) print(infer.query(['D'], evidence={'A': 1})) # 输出:+-----+----------+ # | D | phi(D) | # +=====+==========+ # | D_0 | 0.6000 | # +-----+----------+ # | D_1 | 0.4000 | # +-----+----------+ ``` 其中,`VariableElimination`是概率推理的类,`query`方法用于查询给定变量的概率分布,`evidence`参数用于指定给定变量的取值。 ### 无向图模型 以下是一个简单的无向图模型的示例: ```python from pgmpy.models import MarkovModel model = MarkovModel([('A', 'B'), ('C', 'B'), ('B', 'D')]) ``` 其中,`MarkovModel`是无向图模型的类,与有向图模型类似,`('A', 'B')`表示A节点和B节点之间有相互作用关系。 接下来,我们可以为每个节点定义势函数。以下是一个简单的例子: ```python from pgmpy.factors.discrete import DiscreteFactor phi_a = DiscreteFactor(['A'], [2], [0.2, 0.8]) phi_c = DiscreteFactor(['C'], [2], [0.4, 0.6]) phi_b = DiscreteFactor(['A', 'C', 'B'], [2, 2, 2], [0.1, 0.9, 0.3, 0.7, 0.9, 0.1, 0.7, 0.3]) phi_d = DiscreteFactor(['B', 'D'], [2, 2], [0.9, 0.1, 0.1, 0.9]) model.add_factors(phi_a, phi_c, phi_b, phi_d) ``` 其中,`DiscreteFactor`是势函数的类,与条件概率分布类似,需要指定变量名、变量取值个数和势函数的值。 接下来,我们可以使用以下代码进行概率推理: ```python from pgmpy.inference import BeliefPropagation infer = BeliefPropagation(model) print(infer.query(['D'], evidence={'A': 1})) # 输出:+-----+----------+ # | D | phi(D) | # +=====+==========+ # | D_0 | 0.6000 | # +-----+----------+ # | D_1 | 0.4000 | # +-----+----------+ ``` 其中,`BeliefPropagation`是概率推理的类,与有向图模型类似,`query`方法用于查询给定变量的概率分布,`evidence`参数用于指定给定变量的取值。 ## 总结 本章介绍了概率图模型的基本概念和Python实现,包括有向图模型和无向图模型的构建、条件概率分布和势函数的定义、概率推理等。使用`pgmpy`库可以方便地实现概率图模型,对于概率模型的学习和应用都有很大的帮助。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值