斯坦福大学公开课机器学习课程(Andrew Ng)八顺序最小优化算法

本文详细介绍了斯坦福大学公开课中的机器学习课程,重点讲解了SVM(支持向量机)的相关概念,包括核技法、软间隔分类器和SMO(序列最小优化)算法。核技法用于解决高维空间计算复杂度问题,软间隔分类器引入了惩罚因子以适应非线性可分数据。SMO算法是一种用于SVM的高效优化方法,每次迭代优化两个参数,确保在约束条件下找到局部最优解。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

课程概要:

1.核技法

2.软间隔分类器

3.SVM求解的序列最小化算法(SMO)

4.SVM应用


一.核技法


回忆一下上篇中得到的简化的最优问题,,#1:

定义函数ϕ(x)为向量之间的映射,一般是从低维映射到高维,比如在前面笔记中提到的房价和面积的关系问题中,可以定义ϕ为:

这样,就可以将#1 问题中目标函数中的内积的形式

这样就达到了将低维空间上的数据映射到高维空间上,使数据线性可分的概率变大,即不能
保证在高维上一定是线性可分的,但一般情况下高维空间上比低维空间上更加线性可分。
但有些时候,经过ϕ映射后的向量的维度过高,导致映射后向量内积的计算复杂度过高。
为了解决这个问题,我们正式引入核函数:

其中,X,Z即为上面的为了简化表示,去掉了上标。

核函数的作用在于定义了核函数后,可以不用明确的定义出映射函数,就能计算两个向量在高维空间中的内积了,而且时间复杂度低。

下面举几个核函数的例子:

其对应的映射函数为

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值