
scikit-learn
文章平均质量分 83
scikit-learn
shifting_sand
有形的生命的确非常脆弱,但是无形的力量,就会坚不可破。
展开
-
scikit-learn 其他线性回归模型
参考scikit-learn官网Ordinary Least Squares 最小二乘法 也就是普通线性回归minw∣∣Xw−y∣∣22min_w||X_w-y||^2_2minw∣∣Xw−y∣∣22 下标为2 L2范数领回归 Ridge Regressionminw∣∣Xw−y∣∣22+a∣∣w∣∣22min_w||X_w-y||^2_2+a||w||^2_2minw∣∣Xw...原创 2020-02-09 17:16:39 · 320 阅读 · 0 评论 -
python 手写代码实现线性回归
一元一次导包import numpy as npimport matplotlib.pyplot as plt%matplotlib inlinefrom sklearn.linear_model import LinearRegression创建数据X = np.linspace(2,10,20).reshape(-1,1)# f(x) = wx + by = np.r...原创 2020-02-04 11:35:36 · 2048 阅读 · 1 评论 -
线性回归2020年天猫双十一销量
# 认为天猫销量和年份之间存在函数关系 一元二次,一元三次import numpy as npimport matplotlib.pyplot as plt%matplotlib inlineyears = np.arange(2009,2020)years#array([2009, 2010, 2011, 2012, 2013, 2014, 2015, 2016, 2017, 2...原创 2020-01-31 18:26:53 · 1062 阅读 · 0 评论 -
scikit-learn 线性回归学习
导数知识几种常见函数的导数:① C’=0(C为常数);② (xn)’=nx(n-1) (n∈Q);③ (sinx)’=cosx;④ (cosx)’=-sinx;⑤ (ex)’=ex;⑥ (ax)’=axIna (ln为自然对数)⑦ loga(x)’=(1/x)loga(e)导数的四则运算①(u±v)’=u’±v’②(uv)’=u’v+uv’③(u/v)’=(u’v-uv’)...原创 2020-01-31 18:04:44 · 927 阅读 · 0 评论 -
scikit-learn adaboost
原理参见:adaboosting原理探讨(一)https://blog.youkuaiyun.com/sinat_29957455/article/details/79810188adaboosting原理探讨(二)https://blog.youkuaiyun.com/baiduforum/article/details/6721749adaboosting原理探讨(三)https://blog.csdn....原创 2020-01-30 18:12:22 · 298 阅读 · 0 评论 -
scikit-learn 梯度提升分类树
p**70*(1-p)**30# 分类# 回归:拟合一个方程 f(x) = wX + b----------> w,bimport numpy as npimport matplotlib.pyplot as plt%matplotlib inlinefrom sklearn.ensemble import GradientBoostingClassifierfrom sk...原创 2020-01-29 17:42:47 · 586 阅读 · 0 评论 -
scikit-learn 梯度提升下降 回归
import numpy as npimport matplotlib.pyplot as plt%matplotlib inlinef = lambda x : (x - 3)**2 + 2.5*x -7.5求解导数令导数=0求解最小值# 导数 = 梯度2*(x - 3)*1 + 2.5 = 02*x - 3.5 = 0x = 1.75x = np.linspace(-2...原创 2020-01-28 18:03:42 · 278 阅读 · 0 评论 -
scikit learn 梯度提升树
梯度提升树简单使用import numpy as np# f(x) = 3*x**2# 梯度=导数from sklearn.ensemble import GradientBoostingClassifierfrom sklearn import datasetsfrom sklearn.model_selection import train_test_splitX,y = da...原创 2020-01-26 15:08:53 · 836 阅读 · 2 评论 -
scikit learn 极限森林
from sklearn.ensemble import ExtraTreesClassifier,RandomForestClassifierfrom sklearn.tree import DecisionTreeClassifierfrom sklearn.model_selection import cross_val_scorefrom sklearn import dataset...原创 2020-01-17 09:19:34 · 396 阅读 · 0 评论 -
scikit learn 随机森林
随机森林在随机森林中,集合中的每棵树都是根据训练集中的替换样本(即引导样本)构建的。此外,在树的构造过程中拆分每个节点时,可以从所有输入要素或size的随机子集中找到最佳拆分 max_features。这两个随机性来源的目的是减少森林估计量的方差。实际上,单个决策树通常表现出较高的方差并且倾向于过度拟合。森林中注入的随机性产生决策树,其预测误差有些解耦。(一个树有误差不会对总体结果有太大影响...原创 2020-01-17 08:49:27 · 213 阅读 · 0 评论 -
sklearn Decision Trees决策树
什么是决策树? 决策树分类的思想类似于找对象。现想象一个女孩的母亲要给这个女孩介绍男朋友,于是有了下面的对话:女儿:多大年纪了?母亲:26。女儿:长的帅不帅?母亲:挺帅的。女儿:收入高不?母亲:不算很高,中等情况。女儿:是公务员不?母亲:是,在税务局上班呢。女儿:那好,我去见见  ...原创 2020-01-16 20:52:57 · 345 阅读 · 0 评论 -
scikit-learn KNN模型选择
import numpy as npimport pandas as pdfrom sklearn.neighbors import KNeighborsClassifierfrom sklearn.model_selection import train_test_split# cv int 6 将数据分分成6份 怎么分的就用到下面的KFoldfrom sklearn.model_se...原创 2020-01-09 20:49:01 · 223 阅读 · 0 评论 -
scikit-learn KNN 画图展示
鸢尾花 iris展示import numpy as npimport matplotlib.pylab as pyb%matplotlib inlinefrom sklearn.neighbors import KNeighborsClassifierfrom sklearn import datasets加载数据,数据降维(画图)X,y = datasets.load_iris(...原创 2020-01-09 19:17:53 · 5533 阅读 · 0 评论 -
scikit-learn分类模型 KNN算法
算法原理简介KNN k(邻居个数) nearest neighbor K近邻算法简单地说,K-近邻算法采用测量不同特征值之间的距离方法进行分类(k-Nearest Neighbor,KNN)优点:精度高、对异常值不敏感、无数据输入假定。缺点:时间复杂度高、空间复杂度高。1、当样本不平衡时,比如一个类的样本容量很大,其他类的样本容量很小,输入一个样本的时候,K个临近值中大多数都是大样...原创 2019-12-04 19:42:33 · 1836 阅读 · 0 评论 -
机器学习入门
#机器学习原理##什么是机器学习?从广义上讲,机器学习是一种能够赋予机器学习的能力,让它以此完成直接编程无法完成的功能的方法从实践的意义上讲,机器学习是一种通过利用数据,训练出模型,然后使用模型预测的一种方法人类的学习是一个人根据过往的经验,对一类问题形成某种认识或总结出一定的规律,然后利用这些知识来对新的问题下判断的过程同样机器学习也是类似的过程那么机器学习如何积累经验,总结规律呢?-...原创 2019-12-04 17:43:35 · 344 阅读 · 0 评论