关于sklearn中的归一化,标准化以及返回inverse_transform()的详细例子,附带具体的回归预测的例子

本文详细介绍如何使用MinMaxScaler和StandardScaler进行数据预处理,包括归一化和标准化操作,以及如何逆向转换数据。通过实例展示了如何在机器学习任务中正确应用这些技术。
部署运行你感兴趣的模型镜像

主要就以下函数作出举例:
Ⅰ.preprocessing.MinMaxScaler(feature_range=(-1, 1)).fit(X)
Ⅱ.scaler1.inverse_transform(X_scaled1)
Ⅲ.preprocessing.StandardScaler().fit(X)
Ⅳ.scaler2.inverse_transform(X_scaled2)
scaler1,scaler2为归一化标准化后地对象。

import torch
from sklearn import preprocessing
import numpy as np

X = np.array([[ 1., -1.,  2.],[ 2.,  0.,  0.],[ 0.,  1., -1.]])
print(X)
# The transformation is given by::

#     X_std = (X - X.min(axis=0)) / (X.max(axis=0) - X.min(axis=0))
#     X_scaled = X_std * (max - min) + min

# where min, max = feature_range.

# The transformation is calculated as::

#     X_scaled = scale * X + min - X.min(axis=0) * scale
#     where scale = (max - min) / (X.max(axis=0) - X.min(axis=0))
# 归一化(任意范围)
scaler1= preprocessing.MinMaxScaler(feature_range=(-1, 1)).fit(X)#归一化到(-1,1),scaler1保存最大最小值,便于回到原来参数
print(scaler1)
X_scaled1 = scaler1.transform(X)#下次归一化,按scaler1归一化到(-1,1)
print("归一化X_scaled1:\n{}".format(X_scaled1))
X1=scaler1.inverse_transform(X_scaled1)#按scaler1回到原来参数
print(X1)

print("fuck"*30)
# 标准化(标准高斯分布)<概率论基础啊>
scaler2 = preprocessing.StandardScaler().fit(X)#标准化到,scaler2保存方差和均值
print(scaler2)
X_scaled2 = preprocessing.scale(X)#下次标准化,按scaler2标准化到(mean_=0,var_=1)
print("标准化X_scaled2:\n{}".format(X_scaled2))
X2=scaler2.inverse_transform(X_scaled2)#按scaler2回到原来参数
print(X2)

print("*"*100)
print("scaler2.var_:{}".format(scaler2.var_))
print("scaler2.mean_:{}".format(scaler2.mean_))
print("&"*100)
print("scaler1.data_min_:{}".format(scaler1.data_min_))
print("scaler1.data_max_:{}".format(scaler1.data_max_))

效果:
在这里插入图片描述
黑色背景可能更好点:
在这里插入图片描述
具体的回归预测例子:pre_data是数据集,293*14,第一列是y,其他13个特征x:

x_data=pre_data[:,1:]
y_data=pre_data[:,0]
#仅对输入x_data作标准化
scaler2 = preprocessing.StandardScaler().fit(x_data)#标准化到,scaler2保存方差和均值
standar_data = preprocessing.scale(x_data)#下次标准化,按scaler2标准化到(mean_=0,var_=1)
x_train,x_test,y_train,y_test =train_test_split( standar_data  ,
   y_data  ,test_size=0.15)
initial_data = scaler2.inverse_transform(x_test)#按scaler2回到原来x_data
plt.figure(1, figsize=(32, 20))
plt.plot(pre_data[:,13],pre_data[:,0], 'b-', label = 'actual')
plt.plot(initial_data[:,12] ,predictions, 'r.', label = 'prediction')# predictions是模型预测值
plt.show()

喜欢请点赞收藏,欢迎指正,谢谢。

您可能感兴趣的与本文相关的镜像

PyTorch 2.7

PyTorch 2.7

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

### 如何使用 `inverse_transform` 方法实现数据的反归一化 为了执行反归一化操作,即恢复经过缩放后的原始数值范围内的数据点,可以利用 Scikit-Learn 库中的 `StandardScaler` 或者 `MinMaxScaler` 的 `inverse_transform()` 函数。此函数能够接收已经过变换的数据作为输入,并返回这些数据对应的未被缩放前的形式。 下面是一个具体的应用实例来展示如何应用这一功能: 假设有一个简单的二维数组表示某些样本特征值,先对其进行标准化处理再尝试将其还原回原来的尺度。 ```python from sklearn.preprocessing import StandardScaler import numpy as np # 创建示例数据集 data = np.array([[1., -1., 2.], [2., 0., 0.], [0., 1., -1.]]) scaler = StandardScaler() scaled_data = scaler.fit_transform(data) print("Scaled Data:") print(scaled_data) reverted_data = scaler.inverse_transform(scaled_data) print("\nReverted Data (should match original):") print(reverted_data) ``` 这段代码首先定义了一个小型的数据集并对其进行了标准差标准化[^4];接着调用了 `inverse_transform` 来逆转这个过程,从而得到了接近初始状态的数据副本。需要注意的是,由于浮点运算精度的原因,最终输出的结果可能会有轻微差异,但这不影响整体效果。 对于 `MinMaxScaler` 类似的操作也同样适用,只需替换相应的对象即可完成相同目的的任务。 #### 注意事项 - 如果在训练模型之前对数据做了任何类型的缩放,则应在评估阶段以及未来预测时同样地对待新来的测试数据或未知数据。 - 当涉及到持久保存已拟合好的缩放器(比如通过 joblib 或 pickle)以便后续加载和重复使用时,确保正确序列化整个对象而不是仅仅记录下参数设置。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值