(1-7)sklearn库的补充---如何生成数据?

本文深入探讨了使用Sklearn库生成各类数据集的方法,包括回归数据、分类数据、聚类数据及复杂数据形态的生成技巧。通过具体示例,详细介绍了make_regression、make_classification、make_blobs等函数的应用场景与参数配置,适用于初学者和进阶用户。

生成数据,本应当在(1-1)sklearn库的 数据处理里面的内容,但由于现在不是我研究的重点,故单独摘出来备用




1.2 创建数据集
我们除了可以使用sklearn自带的数据集,还可以自己去创建训练样本,具体用法可以参考: https://scikit-learn.org/stable/datasets/
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
1.2.1 生成回归数据 make_regression()

from sklearn.datasets import make_regression
X, y, coef = make_regression(n_samples=200, n_features=1, n_informative=1, n_targets=1,
                       bias = 0, effective_rank=None, noise = 20,
                        tail_strength=0,random_state=0, coef = True)
  • n_samples 样本数量
  • n_features 特征数量
  • n_informative 对回归有效的特征数量
    (该项为对本次回归有用的特征数量,举个例子,我们想要预测房价,手上的特征有:房子面积、房龄、地段和房主的名字,显然前3项特征时有效特征,而房主的名字属于无效特征,改变其值并不影响回归效果。这里的n_informative就是3,总特征数为4.)
  • n_targets y的维度
  • bias 底层线性模型中的偏差项。相当于y的中位数
  • effective_rank 有效等级
  • noise 设置高斯噪声的标准偏差加到数据上。(noise:其值是高斯分布的偏差值,其值越大数据越分散,其值越小数据越集中。)
  • shuffle 是否洗牌(设置是否洗牌,如果为False,会按照顺序创建样本,一般设置为True。)
  • coef 如果为真,则返回权重值
  • random_state 设置随机种子
from sklearn.datasets import make_regression
from matplotlib import pyplot

X, y, coef = make_regression(n_samples=200, n_features=1, n_informative=1, n_targets=1,
                       bias = 0, effective_rank=None, noise = 20,
                        tail_strength=0,random_state=0, coef = True)


print(X[:10])#输出前十个
print(y[:10])#输出前十个
print(coef)

pyplot.scatter(X,y)
pyplot.show()

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
1.2.2 生成分类数据 make_classification()

from sklearn.datasets.samples_generator import make_classification
 
X, y = make_classification(n_samples=6, n_features=5, n_informative=2,
    n_redundant=2, n_classes=2, n_clusters_per_class=2, scale=1.0,
    random_state=20)
 
# n_samples:指定样本数
# n_features:指定特征数
#n_informative有意义的特征数,对本次分类有利的特征数
#n_redundant冗余信息
#n_repeated重复信息,随机提取n_informative和n_redundant 特征
# n_classes:指定几分类
#n_clusters_per_class某一个类别是由几个cluster构成的(子类别)
# random_state:随机种子,使得随机状可重

测试①:

>>> for x_,y_ in zip(X,y):
    print(y_,end=': ')
    print(x_)
 
     
0: [-0.6600737  -0.0558978   0.82286793  1.1003977  -0.93493796]
1: [ 0.4113583   0.06249216 -0.90760075 -1.41296696  2.059838  ]
1: [ 1.52452016 -0.01867812  0.20900899  1.34422289 -1.61299022]
0: [-1.25725859  0.02347952 -0.28764782 -1.32091378 -0.88549315]
0: [-3.28323172  0.03899168 -0.43251277 -2.86249859 -1.10457948]
1: [ 1.68841011  0.06754955 -1.02805579 -0.83132182  0.93286635]

测试②:

from sklearn.datasets import make_classification
import matplotlib.pyplot as plt

X, y = make_classification(n_samples=200, n_features=2, n_informative=2,n_redundant=0,
                           n_repeated=0, n_classes=2, n_clusters_per_class=1,random_state = 1)

print(X[:10])
print(y[:10])

plt.scatter(X[y == 0, 0], X[y == 0, 1], c = 'red', s = 100, label='0')
plt.scatter(X[y == 1, 0], X[y == 1, 1], c = 'blue', s = 100, label='1')
plt.scatter
<think>嗯,用户想用sklearn在Spyder里处理鸢尾花数据集,然后训练机器学习模型。首先,我需要回忆一下sklearn中有关数据集加载的部分。记得sklearn.datasets里有个load_iris函数,可以直接导入数据。然后用户可能需要知道如何划分训练集和测试集,应该是用train_test_split这个方法吧。对了,还需要预处理数据吗?比如标准化或者归一化?不过鸢尾花数据集通常比较干净,可能只需要划分数据集就行了。 接下来,用户可能不熟悉如何在Spyder中具体操作这些步骤,所以得一步步说明。导入的时候,需要导入datasets,model_selection,可能还有预处理模块,不过如果数据已经标准化了,可能不需要。然后加载数据,load_iris()返回的是一个Bunch对象,里面有data、target、feature_names等信息。需要把这些内容提取出来,比如X是data,y是target。 然后划分数据集,用train_test_split函数,设置test_size比如0.3,还有random_state固定随机种子,确保结果可重复。之后是模型的选择,比如用户提到的逻辑回归,所以需要导入LogisticRegression,然后fit训练集数据。之后用测试集评估准确率或者其他指标。 可能用户会问如何处理三分类问题,因为鸢尾花数据集有3个类别。逻辑回归本身支持多分类,所以不需要特别调整,可能只需要设置multi_class参数为'ovr'或者'multinomial'。但sklearn的LogisticRegression默认应该能处理多分类了。 在代码示例中,需要展示整个流程,包括导入、加载数据、划分数据集、训练模型、预测和评估。可能还需要提到特征名称和目标名称的解释,方便用户理解数据。另外,可能需要提醒用户安装必要的,比如sklearn和numpy,不过Spyder通常自带这些了。 用户的问题还可能涉及数据可视化,比如绘制散点图,这时候可能需要导入matplotlib,但用户的问题里没有提到,所以可能暂时不需要。不过如果用户后续有问题,可能需要补充这部分内容。 另外,确保代码在Spyder中能够运行,可能需要检查缩进和语法是否正确。比如,在Python中,函数调用和缩进是否正确。还有,可能需要提醒用户注意特征和标签的对应关系,以及如何解释模型的输出结果。 最后,生成相关问题的时候,需要考虑用户可能的后续问题,比如数据预处理、模型调参、评估指标的选择,或者如何处理过拟合等问题。这些都是用户在使用逻辑回归时可能遇到的常见问题。</think>以下是在Spyder中使用scikit-learn处理鸢尾花数据集的详细步骤: ### 一、环境准备 1. 安装必要(若未安装): ```python pip install numpy scikit-learn matplotlib ``` ### 二、数据加载与处理 ```python # 导入 from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split import numpy as np # 加载数据集 iris = load_iris() X = iris.data # 特征矩阵 (150个样本×4个特征) y = iris.target # 目标向量 (3个类别) feature_names = iris.feature_names # 特征名称 target_names = iris.target_names # 类别名称 # 划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split( X, y, test_size=0.3, # 测试集占比30% random_state=42, # 随机种子保证可重复性 stratify=y # 保持类别分布 ) ``` ### 三、模型训练(以逻辑回归为例) ```python from sklearn.linear_model import LogisticRegression # 初始化模型 model = LogisticRegression( max_iter=200, # 最大迭代次数 multi_class='multinomial' # 多分类设置 ) # 训练模型 model.fit(X_train, y_train) # 测试集预测 y_pred = model.predict(X_test) # 评估准确率 accuracy = model.score(X_test, y_test) print(f"测试集准确率:{accuracy:.2%}") ``` ### 四、关键点说明 1. 数据集特性:包含4个特征(萼片长宽、花瓣长宽)和3个类别(山鸢尾、变色鸢尾、维吉尼亚鸢尾) 2. 数据标准化:该数据集已具有相近的量纲,若使用SVM等敏感算法建议添加`StandardScaler`预处理 3. 多分类处理:`LogisticRegression`默认支持多分类,通过`multi_class`参数选择策略 [^1]
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

BlackTurn

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值