通俗地讲清楚fit_transform()和transform()的区别

本文详细解释了在机器学习预处理中fit_transform与transform的区别与联系。fit_transform主要用于无监督学习算法,它结合了fit与transform两个步骤,而transform则仅用于应用已学习到的转换。文中还通过乳腺癌数据集的实例演示了两者的具体用法。

网上抄来抄去都是一个意思,

fit_transform是fit和transform的组合。

 

 我们知道fit(x,y)在新手入门的例子中比较多,但是这里的fit_transform(x)的括号中只有一个参数,这是为什么呢?

fit(x,y)传两个参数的是有监督学习的算法,fit(x)传一个参数的是无监督学习的算法,比如降维、特征提取、标准化

 

然后解释为什么出来fit_transform()这个东西,下面是重点:

fit和transform没有任何关系,仅仅是数据处理的两个不同环节,之所以出来这么个函数名,仅仅是为了写代码方便,

所以会发现transform()和fit_transform()的运行结果是一样的。

 

注意:运行结果一模一样不代表这两个函数可以互相替换,绝对不可以!!!

transform函数是一定可以替换为fit_transform函数的

fit_transform函数不能替换为transform函数!!!理由解释如下:

 sklearn里的封装好的各种算法都要fit、然后调用各种API方法,transform只是其中一个API方法,所以当你调用除transform之外的方法,必须要先fit,为了通用的写代码,还是分开写比较好 

也就是说,这个fit相对于transform而言是没有任何意义的,但是相对于整个代码而言,fit是为后续的API函数服务的,所以fit_transform不能改写为transform。

 

 

下面的代码用来举例示范,数据集是代码自动从网上下载的,如果把下面的乳腺癌相关的机器学习代码中的fit_transform改为transform,编译器就会报错。(下面给出的是无错误的代码)

 

# coding: utf-8
# 导入pandas与numpy工具包。
import pandas as pd
import numpy as np

# 创建特征列表。
column_names = ['Sample code number', 'Clump Thickness', 'Uniformity of Cell Size', 'Uniformity of Cell Shape', 'Marginal Adhesion', 'Single Epithelial Cell Size', 'Bare Nuclei', 'Bland Chromatin', 'Normal Nucleoli', 'Mitoses', 'Class']
# 使用pandas.read_csv函数从互联网读取指定数据。
data = pd.read_csv('https://archive.ics.uci.edu/ml/machine-learning-databases/breast-cancer-wisconsin/breast-cancer-wisconsin.data', names = column_names )

# 将?替换为标准缺失值表示。
data = data.replace(to_replace='?', value=np.nan)
# 丢弃带有缺失值的数据(只要有一个维度有缺失)。
data = data.dropna(how='any')

# 输出data的数据量和维度。
data.shape


# In[2]:


# 使用sklearn.cross_valiation里的train_test_split模块用于分割数据。
from sklearn.cross_validation import train_test_split

# 随机采样25%的数据用于测试,剩下的75%用于构建训练集合。
X_train, X_test, y_train, y_test = train_test_split(data[column_names[1:10]], data[column_names[10]], test_size=0.25, random_state=33)
# print "data[column_names[10]]",data[column_names[10]]


# 查验训练样本的数量和类别分布。
y_train=pd.Series(y_train)
y_train.value_counts()

# 查验测试样本的数量和类别分布。
y_test=pd.Series(y_test)
y_test.value_counts()


# 从sklearn.preprocessing里导入StandardScaler。
from sklearn.preprocessing import StandardScaler
# 从sklearn.linear_model里导入LogisticRegression与SGDClassifier。
from sklearn.linear_model import LogisticRegression
from sklearn.linear_model import SGDClassifier







#标准化数据,保证每个维度的特征数据方差为1,均值为0。使得预测结果不会被某些维度过大的特征值而主导。
ss = StandardScaler()
X_train = ss.fit_transform(X_train)
X_test = ss.transform(X_test)

#

# 初始化LogisticRegression与SGDClassifier。
lr = LogisticRegression()
sgdc = SGDClassifier()

# 调用LogisticRegression中的fit函数/模块用来训练模型参数。
lr.fit(X_train, y_train)
# 使用训练好的模型lr对X_test进行预测,结果储存在变量lr_y_predict中。
lr_y_predict = lr.predict(X_test)

# 调用SGDClassifier中的fit函数/模块用来训练模型参数。
sgdc.fit(X_train, y_train)
# 使用训练好的模型sgdc对X_test进行预测,结果储存在变量sgdc_y_predict中。
sgdc_y_predict = sgdc.predict(X_test)




# 从sklearn.metrics里导入classification_report模块。
from sklearn.metrics import classification_report

# 使用逻辑斯蒂回归模型自带的评分函数score获得模型在测试集上的准确性结果。
print ("Accuracy of LR Classifier:", lr.score(X_test, y_test))
# 利用classification_report模块获得LogisticRegression其他三个指标的结果。
print (classification_report(y_test, lr_y_predict, target_names=['Benign', 'Malignant']))



# 使用随机梯度下降模型自带的评分函数score获得模型在测试集上的准确性结果。
print 'Accuarcy of SGD Classifier:', sgdc.score(X_test, y_test)
# 利用classification_report模块获得SGDClassifier其他三个指标的结果。
print classification_report(y_test, sgdc_y_predict, target_names=['Benign', 'Malignant'])




会得到报错信息

 

AttributeError: 'StandardScaler' object has no attribute 'mean_'

有的版本报错更加直接:

sklearn.exceptions.NotFittedError: This StandardScaler instance is not fitted yet. Call 'fit' with appropriate arguments before using this method.

原因就是因为代码中的fit_transform函数被改为了transform函数。

所以总结:

fit_transform与transform运行结果一致,但是fit与transform无关,只是数据处理的两个环节,fit是为了程序的后续函数transform的调用而服务的,是个前提条件。

以上。

 

import pandas as pd import numpy as np import matplotlib.pyplot as plt from sklearn.mixture import GaussianMixture from sklearn.cluster import KMeans from sklearn.preprocessing import StandardScaler import warnings warnings.filterwarnings('ignore') np.random.seed(42) #数据加载预处理 df=pd.read_excel('Weight-Height.xlsx') #提取特征 X=df[['Weight','Height']].values #数据标准化 scaler=StandardScaler() X_scaled=scaler.fit_transform(X) #使用肘部法轮廓系数确定最佳K值 def evaluate_clusters(X,max_k=8): k_range=range(2,max_k + 1) kmeans_inertia=[]#惯性 silhouette_scores=[]#轮廓系数 for k in k_range: #K-Means kmeans=KMeans(n_clusters=k, random_state=42,n_init=10) kmeans_labels=kmeans.fit_predict(X) kmeans_inertia.append(kmeans.inertia_)#惯性越小越好 # 轮廓系数 from sklearn.metrics import silhouette_score sil_score=silhouette_score(X,kmeans_labels) silhouette_scores.append(sil_score)#轮廓系数越大越好 return k_range,kmeans_inertia,silhouette_scores k_range,inertia,sil_scores=evaluate_clusters(X) #根据评估选择K=4 optimal_k=4 print(f"\n选择聚类数量:K={optimal_k}") #使用固定参数进行聚类 print("\n"+"="*40) print("执行聚类分析") import time #设置固定的初始化中心点 init_centers=X[np.random.choice(len(X),optimal_k,replace=False)] #GMM 聚类 gmm_start=time.time() gmm=GaussianMixture( n_components=optimal_k, random_state=42, init_params='kmeans', #使用kmeans初始化 n_init=5, max_iter=200, tol=1e-4 ) gmm_labels=gmm.fit_predict(X) gmm_time=time.time()-gmm_start #K-Means聚类 kmeans_start=time.time() kmeans=KMeans( n_clusters=optimal_k, random_state=42, n_init=10, max_iter=300, tol=1e-4, init=init_centers #使用固定的初始化中心 ) kmeans_labels=kmeans.fit_predict(X) kmeans_time=time.time()-kmeans_start print(f"GMM运行时间:{gmm_time:.4f}秒") print(f"K-Means运行时间:{kmeans_time:.4f}秒") print(f"GMM各类别样本数:{np.bincount(gmm_labels)}") print(f"K-Means各类别样本数:{np.bincount(kmeans_labels)}") #可视化结果 fig,(ax1,ax2)=plt.subplots(1,2,figsize=(15,6)) #GMM 聚类结果 scatter1=ax1.scatter(X[:,0],X[:,1],c=gmm_labels,cmap='viridis',alpha=0.7,s=30) ax1.set_xlabel('Weight',fontsize=12) ax1.set_ylabel('Height',fontsize=12) ax1.set_title(f'GMM Clustering(Time:{gmm_time:.4f}s)',fontsize=14) ax1.grid(True,alpha=0.3) #设置坐标轴范围 ax1.set_xlim(50,70) ax1.set_ylim(155,180) ax1.set_xticks(np.arange(50,71,5)) ax1.set_yticks(np.arange(155,181,5)) #K-Means 聚类结果 scatter2 = ax2.scatter(X[:,0], X[:,1],c=kmeans_labels,cmap='viridis',alpha=0.7,s=30) ax2.set_xlabel('Weight',fontsize=12) ax2.set_ylabel('Height',fontsize=12) ax2.set_title(f'K-Means Clustering(Time:{kmeans_time:.4f}s)',fontsize=14) ax2.grid(True,alpha=0.3) #设置坐标轴范围 ax2.set_xlim(50,70) ax2.set_ylim(155,180) ax2.set_xticks(np.arange(50,71,5)) ax2.set_yticks(np.arange(155,181,5)) plt.tight_layout() plt.savefig('clustering_results.png',dpi=300,bbox_inches='tight') plt.show() #聚类效果评估 print("\n"+"="*40) print("聚类效果评估") print("="*40) from sklearn.metrics import silhouette_score, calinski_harabasz_score # 计算评估指标 gmm_silhouette=silhouette_score(X,gmm_labels) kmeans_silhouette=silhouette_score(X,kmeans_labels) gmm_ch=calinski_harabasz_score(X,gmm_labels) kmeans_ch=calinski_harabasz_score(X,kmeans_labels) print("轮廓系数(越高越好):") print(f"GMM:{gmm_silhouette:.4f}") print(f"K-Means:{kmeans_silhouette:.4f}") print("\nCalinski-Harabasz指数(越高越好):") print(f"GMM:{gmm_ch:.4f}") print(f"K-Means:{kmeans_ch:.4f}") #聚类中心/参数分析 print("\n"+"="*40) print("聚类参数分析") print("="*40) print("K-Means 聚类中心:") for i,center in enumerate(kmeans.cluster_centers_): print(f"类别 {i}:Weight={center[0]:.2f}, Height={center[1]:.2f}") print("\nGMM聚类均值:") for i, mean in enumerate(gmm.means_): print(f"类别{i}:Weight={mean[0]:.2f},Height={mean[1]:.2f}")解释代码,白话一点
最新发布
11-26
评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值