使用LogisticRegression和SGDClassifier对良/恶性肿瘤进行分类,并计算出准确率召回率和F1的值

该博客介绍了如何使用LogisticRegression和SGDClassifier对良/恶性肿瘤数据进行分类。通过数据预处理、训练集和测试集划分,然后应用标准化,最后计算模型的准确率、召回率和F1值。
# -*- coding: utf-8 -*-
"""
Created on Tue Oct 24 10:08:40 2017


@author: liuyajun
"""


import pandas as pd
import numpy as np
from sklearn.cross_validation import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.linear_model import LogisticRegression
from sklearn.linear_model import SGDClassifier
from sklearn.metrics import classification_report 


column_names = ['Sample code number','Clump Thickness','Uniformity of Cell Size','Uniformity of Cell shape','Marginal Adhesion','Single Epithelial cell Size','Bare Nuclei','Bland Chromation','Normal Nucleoli','Mitoses','Class']#给读入的数据取列明
data = pd.read_csv('https://archive.ics.uci.edu/ml/machine-learning-databases/breast-cancer-wisconsin/breast-cancer-wisconsin.data',names=column_names)#网站上提供对应的数据
data = data.replace(to_replace='?',value=np.nan)#用numpy中的nan来代替数据中的空值(之前使用?来表示空)
data = data.dropna(how='any')#删除所有带有空值的数据
#print(data.shape)#输出删除空值后数据的形状
#使用函数对数据进行切分,训练数据75%,测试数据25%
X_train,X_test,y_train,y_test = train_test_split(data[column_names[1:10]],data[column_names[10]],test_size=0.25,random_state=33)
#检测样本的数量和类型
y_train.value_counts()
y_test.value_counts()
#首先使用线性模型从事良、恶性肿瘤的预测任务
# 1 标准化数据,保证每个维度的特征数据方差为1,均值为0.使得预测结果不会被某些维度过大的特征值主导
ss = StandardScaler()
X_train=ss.fit_transform(X_train)
X_test=ss.transform(X_test)
# 2 初始化Logis提出Regression和SGDClassifier(随机参数梯度估计)
lr = LogisticRegression()
sgdc = SGDClassifier()
#使用LogisticRegression 中的fit方法训练参数
lr.fit(X_train,y_train)
#对测试数据进行预测
lr_y_predict=lr.predict(X_test)
sgdc.fit(X_train,y_train)
sgdc_y_predict=sgdc.predict(X_test)
#利用LogisticRegression模块自带的score获得模型在测试机上的准确性
print('Accuracy of LR Classifier:',lr.score(X_test,y_test))
#利用Classification_report模块获得LogisticRegression的准确率召回率和F1
print(classification_report(y_test,lr_y_predict,target_names=['Benign','Malignant']))#malignant恶性的benign良性的
print('Accuracy of SGD Classifier:',sgdc.score(X_test,y_test))
print(classifier_report(y_test,y_sgdc_test,target_names=['Bengin','Malignant']))

机器学习中,评估模型的性能是非常重要的一步。常用的评估指标包括准确率召回率F1等。以下给Python代码实现,对每个指标进行详细解释。 假设我们有一个二分类问题,数据集中包含100个样本,其中70个样本属于正类,30个样本属于负类。我们使用逻辑回归模型进行训练,得到了预测结果,代码如下: ```python from sklearn.linear_model import LogisticRegression from sklearn.metrics import accuracy_score, recall_score, f1_score # 构造数据集 X = [[i] for i in range(100)] y = [1 if i < 70 else 0 for i in range(100)] # 训练模型 model = LogisticRegression() model.fit(X, y) # 预测结果 y_pred = model.predict(X) ``` 接下来,我们计算模型的准确率召回率F1: ```python # 计算准确率 accuracy = accuracy_score(y, y_pred) print("Accuracy: {:.2f}%".format(accuracy * 100)) # 计算召回率 recall = recall_score(y, y_pred) print("Recall: {:.2f}%".format(recall * 100)) # 计算F1 f1 = f1_score(y, y_pred) print("F1 Score: {:.2f}%".format(f1 * 100)) ``` 输结果为: ``` Accuracy: 76.00% Recall: 95.71% F1 Score: 85.37% ``` 下面对每个指标进行详细解释: - 准确率(Accuracy):准确率是指模型正确预测的样本数占总样本数的比例。在二分类问题中,准确率可以用以下公式计算: $Accuracy = \frac{TP+TN}{TP+TN+FP+FN}$ 其中,$TP$表示真正例数,$TN$表示真反例数,$FP$表示假正例数,$FN$表示假反例数。 - 召回率(Recall):召回率是指模型正确预测为正类的样本数占真正类总数的比例。在二分类问题中,召回率可以用以下公式计算: $Recall = \frac{TP}{TP+FN}$ - F1F1准确率召回率的调平均数,用于综合考虑模型的性能。在二分类问题中,F1可以用以下公式计算: $F1 = \frac{2TP}{2TP+FP+FN}$ F1的取范围为0到1,越接近1表示模型性能越好。 需要注意的是,评估指标的选择应该根据具体问题进行,不同的问题可能需要考虑不同的指标,或者综合考虑多个指标。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值