机器学习:线性SVM的损失函数

本文介绍了线性SVM的决策边界,通过二维平面上的点来阐述决策边界的表达式,并解释了决策边界的两侧各有一个超平面,其间的距离(边际)最大化。通过分析支持向量,推导出SVM的损失函数,旨在求解最小化模长平方,从而最大化边际的优化问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

要理解SVM的损失函数,先定义决策边界。假设现在数据中总计有个训练样本,每个训练样本i可以被表示为(xi,yi)(i=1,2,...,N)(x_i,y_i)(i=1,2,...,N)(xi,yi)(i=1,2,...,N),其中xi(x1i,x2i,...,xni)T(x_1i,x_2i,...,x_ni)^T(x1i,x2i,...,xni)T这样的一个特征向量,每个样本总共含有n个特征。二分类标签yi的取值是{-1, 1}。
如果n等于2,则有i=(x1i,x2i,yi)T,分别由特征向量和标签组成。此时可以在二维平面上,以x2为横坐标,x1 为纵坐标,y为颜色,可视化所有的N个样本:
在这里插入图片描述
让所有紫色点的标签为1,红色点的标签为-1。要在这个数据集上寻找一个决策边界,在二维平面上,决策边界(超平面)就是一条直线。二维平面上的任意一条线可以被表示为:
x1=ax2+bx_1=ax_2+bx1=ax2+b
变换表达式如下:
0=ax2−x1+b0=ax_2-x_1+b0=ax2x1+b
0=[a,−1]∗[x1x2]+b0=[a,-1]*\left[\begin{array}{c}x_1\\x_2\end{array}\right]+b0=[a,1][x1x2]+b
0=ωTx+b0=\boldsymbol{\omega^Tx}+b0=ωT

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值