1.环境:ubuntu ,python3.4,pycharm
2.数据格式:
3.源码:
import sklearn
import numpy as np
import pandas as pd
from sklearn.cross_validation import train_test_split
from sklearn.linear_model import LogisticRegression
'''
特征归一化:
各特征之间的大小范围一致,才能使用距离度量等算法
加速梯度下降算法的收敛
在SVM算法中,一致化的特征能加速寻找支持向量的时间
不同的机器学习算法,能接受的输入数值范围不一样
'''
'''
sklearn中最常用的特征归一化方法MinMaxScaler和StandardScaler。
它默认将每种特征的值都归一化到[0,1]之间,归一化后的数值大小范围是可调的(根据MinMaxScaler的参数feature_range调整)。
下面代码将特征归一化到[-1,1]之间。
'''
min_max_scaler = sklearn.preprocessing.MinMaxScaler(feature_range=(-1,1))
df = pd.read_csv("data.csv")
df.columns=["grade1","grade2","labe

本文介绍了如何在Python环境下,利用sklearn库实现逻辑回归(LR)算法。首先,文章展示了如何对数据进行预处理,包括特征归一化,使用MinMaxScaler将特征缩放到[-1, 1]之间。接着,通过train_test_split进行数据划分,并应用LogisticRegression进行训练。最后,评估模型得分并进行预测。同时,文中提到了一些常见的数据可视化函数,如绘制坐标图、箱形图、条形图等。"
82058698,7896759,理解WAP协议:无线应用协议详解,"['网络协议', '移动开发', '网络应用', 'WAP']
最低0.47元/天 解锁文章
3713

被折叠的 条评论
为什么被折叠?



