最小二乘法线性回归:sklearn.linear_model.LinearRegression(fit_intercept=True, normalize=False,copy_X=True, n_jobs=1)
主要参数说明:
fit_intercept(添加截距):布尔型,默认为True,若参数值为True时,代表训练模型需要加一个截距项b;若参数为False时,代表模型无需加截距项。
normalize(归一化):布尔型,默认为False,若fit_intercept参数设置False时,normalize参数无需设置;若normalize设置为True时,则输入的样本数据将(X-X均值)/||X||;若设置normalize=False时,在训练模型前, 可以使用sklearn.preprocessing.StandardScaler进行标准化处理。
属性:
coef_:回归系数(斜率)
intercept_:截距项
主要方法:
①fit(X, y, sample_weight=None),返回一个实例化好的fit(就是初始化好一个线性函数)
②predict(X)
③score(X, y, sample_weight=None)
返回值为: 
他表示预测值与标签均值的相似度。score越靠近1预测就越接近真值。
本文详细介绍了使用sklearn库中的LinearRegression模型进行线性回归的方法,包括关键参数fit_intercept和normalize的作用,以及如何获取回归系数和截距项。同时,文中还解释了fit、predict和score方法的使用,帮助读者理解模型训练和评估的过程。
1309

被折叠的 条评论
为什么被折叠?



