python简单实现支持向量机

本文介绍了如何使用Python训练支持向量机(SVM)模型,特别是应用高斯核函数。文中通过代码示例展示了高斯核函数对决策边界的影响,并探讨了超参数gamma的调整对模型拟合的影响。最后,展示了线性SVM在分类问题上的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

支持向量机(SVM)代码实现

支持向量机是一个重要的分类算法,在上一篇文章中简单地介绍了它的一些理论知识,这篇文章是简单讲一下如何用python训练一个svm模型

导入所需的数据库

import numpy as np
from sklearn import datasets
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import StandardScaler
from sklearn.svm import LinearSVC
import matplotlib.pyplot as plt
import seaborn as sns; sns.set()
from sklearn.datasets import make_moons
from sklearn.svm import SVC

简单地定义一个线性svm的函数

# 线性SVM
def linearsvm():
    """LinearSVC会对偏置项进行正则化,所以需要先减去平均值,使训练集集中"""
    iris = datasets.load_iris()
    X = iris["data"][:, (2,3)]
    Y = (iris["target"] == 2).astype(np.float64) 
    # iris["target"] == 2输出布尔值,astype()函数输出的是0,1的数值
    
    svm_clf = Pipeline((("scaler", StandardScaler()),
     					("linear_svc",LinearSVC(C = 1, loss = "hinge")),))  
    # C是SVM类中的超参数,C值越小,间隔越宽,但是间隔违例也会越多
    
    svm  = svm_clf.fit(X, Y)
    y_pred = svm.predict([[5.5, 1.7]])
    
    print(y_pred)

定义一个多项式svm

def polysvm():
    data = make_moons()
    x = data[0] 
   	y = data[1]
   	poly_kernel_svm_clf = Pipeline((("scaler", StandardScaler()), ("svm_clf", SVC(kernel = "poly", degree = 3, coef0 = 1, C = 5)),))		
   	# coef0控制模型受高阶多项式或者低阶多
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值