机器学习 绘制决策边界

两个特征的决策边界绘制。

1.数据处理

1.1 数据准备

使用 Iris 鸢尾花数据集,进行分析可视化。平面图只能绘制两个特征,这里我们也取数据集中的两列特征。

# 引入数据
from sklearn import datasets
import numpy as np

iris = datasets.load_iris()
# 'feature_names': ['sepal length (cm)','sepal width (cm)','petal length (cm)','petal width(cm)'],
#只取其中两个特征 第三列和第四列,[0,3]则代表取第一列和第四列
X = iris.data[:,[2,3]]  
y = iris.target
print("Class labels:",np.unique(y))  #打印分类类别的种类

1.2 数据集切分

# 切分训练数据和测试数据
from sklearn.model_selection import train_test_split
## 30%测试数据,70%训练数据,stratify=y表示训练数据和测试数据具有相同的类别比例
X_train,X_test,y_train,y_test = train_test_split(X,y,test_size=0.3,random_state=1,stratify=y)

train_test_split函数中stratify=y的理解:

kind,count=np.unique(y_train,return_counts=True)
print(count)
kind_test,count_test=np.unique(y_test,return_counts=True)
print(count_test)
'''
输出结果:
[35 35 35]
[15 15 15]
'''

1.3 数据标准化

注意标准化本质上是一种线性变换,它并没有改变一个数据在该组数据中的位置,也没有改变该组数据分布的形状,而只是将该组数据变成平均值为0、标准差为1
在这里插入图片描述

from sklearn.preprocessing import StandardScaler

sc = StandardScaler()
## 估算训练数据中的mu和sigma
sc.fit(X_train)
## 使用训练数据中的mu和sigma对数据进行标准化
X_train_std 
使用 `matplotlib` 的 `contourf` 函数绘制机器学习模型的决策边界是一种常见的可视化方法,可以直观展示分类模型在特征空间中的决策规则。以下是实现步骤和代码示例: ### 实现步骤 1. **准备数据**: - 生成或加载一个二维数据集,例如使用 `make_moons` 或 `make_blobs` 创建的合成数据集。 - 该数据集应包含两个特征和对应的类别标签。 2. **训练模型**: - 使用一个分类模型,如逻辑回归、支持向量机或神经网络,对数据进行训练。 3. **创建网格**: - 在特征空间中创建一个网格,用于评估模型在每个网格点上的预测结果。 4. **预测网格点的类别**: - 将网格点输入模型,得到每个点的预测类别。 5. **绘制决策边界**: - 使用 `plt.contourf` 绘制等高线填充图,表示决策边界。 - 使用 `plt.scatter` 绘制数据点,以区分不同类别的分布。 ### 示例代码 以下是一个使用 `LogisticRegressionCV` 和 `plt.contourf` 绘制决策边界的完整示例代码: ```python import numpy as np import matplotlib.pyplot as plt from sklearn.linear_model import LogisticRegressionCV from sklearn.datasets import make_moons def plot_decision_boundary(X, y): # 训练模型 clf = LogisticRegressionCV() clf.fit(X, y) # 定义网格范围 x_min, x_max = X[:, 0].min() - 0.5, X[:, 0].max() + 0.5 y_min, y_max = X[:, 1].min() - 0.5, X[:, 1].max() + 0.5 h = 0.01 # 网格步长 xx, yy = np.meshgrid(np.arange(x_min, x_max, h), np.arange(y_min, y_max, h)) # 预测网格点的类别 Z = clf.predict(np.c_[xx.ravel(), yy.ravel()]) Z = Z.reshape(xx.shape) # 绘制决策边界 plt.contourf(xx, yy, Z, cmap=plt.cm.Spectral) plt.scatter(X[:, 0], X[:, 1], c=y, cmap=plt.cm.Spectral) plt.title("Decision Boundary using contourf") plt.xlabel("Feature 1") plt.ylabel("Feature 2") plt.show() # 生成数据集 X, y = make_moons(n_samples=200, noise=0.3) plot_decision_boundary(X, y) ``` ### 参数说明 - `xx` 和 `yy`:通过 `np.meshgrid` 生成的网格点,用于覆盖整个特征空间。 - `Z`:每个网格点的预测类别,用于绘制决策边界。 - `cmap=plt.cm.Spectral`:颜色映射方案,用于区分不同类别区域。 - `plt.scatter`:用于绘制原始数据点,帮助观察决策边界与实际数据的关系。 ### 可视化效果 通过 `plt.contourf`,可以绘制出不同类别之间的决策边界,边界两侧的颜色填充表示模型对不同区域的分类结果。同时,散点图展示了训练数据的分布情况,有助于分析模型的分类性能。 ### 注意事项 - 为了提高可视化效果,网格步长 `h` 应该设置得足够小,以确保边界平滑。 - 选择合适的颜色映射方案可以增强决策边界的可读性。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值