sklearn中提取模型的权重和分割测试集与训练集

本文介绍如何使用XGBoost获取模型训练过程中的特征权重,并通过Python的sklearn库实现数据集的随机划分。包括特征权重的获取方法及参数设置、数据集划分的参数说明与实例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、获得权重
1)查看模型训练数据集的特征权重,利于分析模型对特征的偏好、调整模型参数、分析数据很重要。
2)例子如下:
import xgboost as xgb
def load_model(X_train, X_test, y_train, y_test):
    params = {
        'booster': 'gbtree',
        'objective': 'multi:softmax',
        'gamma': 0.1,
        'max_depth': 8,
        'lambda': 2,
        'subsample': 0.7,
        'colsample_bytree': 0.7,
        'min_child_weight': 3,
        'silent': 1,
        'eta': 0.1,
        'seed': 123,
        'nthread': 4,
    }
    xgb_train = xgb.DMatrix(X_train, y_train)
    xgb_parms = params.items()
    xgb_num_items = 100
    model = xgb.train(xgb_parms, xgb_train, xgb_num_items)
    # 权重值,可以选择不同的参数
    # importance_weight = model.get_score(mportance_type='weight')
    # 度量方式:信息增益
    # importance_weight = model.get_score(mportance_type='gain')
    importance_weight = model.get_score()
    print(importance_weight)


2、sklearn中随机产生测试集和训练集
1)train_test_split中的参数描述
data:没有标签的数据集,输入的可以是list,numpy arrays,cipy-sparse 矩阵或者pandas中的DataFrame对象
label:数据集标签,输入的可以是list,numpy arrays,cipy-sparse 矩阵或者pandas中的DataFrame对象
train_size:训练集占的百分比,数值只能是0.0-0.1
test_size:测试集占的百分比,数值只能是0.0-0.1
random_state:随机状态,即一个随机数

2)例子如下:
#导入包
from sklearn.model_selection import train_test_split
#分离测试集和训练集
X_train, X_test, y_train, y_test = train_test_split(data, label, test_size = 0.2, random_state=123)

### 训练集测试集的概念及用途 #### 概念定义 在机器学习领域,训练集是指用来构建优化模型的数据集合[^1]。这些数据被输入到算法中,使模型能够从中学习模式并提取特征。而测试集则是指一组未参模型训练的数据,其主要目的是评估模型的性能以及预测能力[^2]。 #### 主要区别 两者的根本差异在于它们的功能定位: - **训练集**用于让模型学习参数,从而适应已知数据中的规律[^3]。 - **测试集**则独立于训练过程之外,仅作为衡量模型泛化能力真实表现的标准[^4]。 #### 作用分析 ##### 训练集的作用 训练集的核心目标是帮助模型掌握特定任务的知识。通过对大量标注样本的学习,模型可以逐渐调整内部权重或其他可调参数,使得对于给定输入能尽可能接近正确的输出结果。 ##### 测试集的作用 相比之下,测试集并不参到任何阶段的建模过程中,而是提供了一种无偏见的方式去检验最终得到的解决方案是否具备足够的鲁棒性准确性。换句话说,它是判断所建立起来的人工智能系统能否成功应对新情况的重要依据之一。 以下是利用Python实现简单线性回归的一个例子,其中展示了如何分离出训练子集验证/测试部分: ```python from sklearn.model_selection import train_test_split from sklearn.linear_model import LinearRegression import numpy as np # 创建虚拟数据 X, y = np.arange(10).reshape((5, 2)), range(5) # 划分数据为训练集测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33, random_state=42) model = LinearRegression().fit(X_train, y_train) predictions = model.predict(X_test) print(f'Predictions on Test Set: {predictions}') ``` 此代码片段清晰地体现了将原始资料分割成不同用途组别的操作流程,并演示了怎样运用其中一个分区完成初步拟合后再针对另一个区块执行效能评测的操作逻辑。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值