sklearn机器学习算法原理及实践
文章平均质量分 58
aligoo_
...
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
机器学习介绍
本文主要参考 scikit-learn机器学习 常用算法原理及编程实践源码连接http://www.hzcourse.com/web/refbook/detail/7641/226本文包括 介绍机器学习应用,机器学习的分类,机器学习开发的典型步骤1介绍机器学习应用得益于摩尔定律,计算机硬件(CPU、GPU)为很多通过大量数据学习的算法提供很好的条件,这类算法称为机器学习算法。传...原创 2018-12-02 11:46:50 · 403 阅读 · 0 评论 -
信息增益——信息熵
熵是一个热力学中表征物质状态的参量之一,物理意义为:体系混乱程度的度量。信息熵是为了解决信息量化问题。香浓【】认为,一条信息的信息量和它的不确定性有直接关系。一个问题的不确定性越大,要搞清楚这个问题,需要了解的信息就越多,其信息熵就越大。 横坐标...原创 2018-12-08 16:19:23 · 1139 阅读 · 0 评论 -
numpy基本操作
# coding: utf-8# # numpy基本操作# # NumPy系统是Python的一种开源的数值计算扩展。这种工具可用来存储和处理大型矩阵。# 更多操作参考http://www.runoob.com/numpy/numpy-tutorial.html# # numpy reshape# # reshape()# revel()...原创 2018-12-10 22:04:42 · 317 阅读 · 0 评论 -
KNN分类
import matplotlib.pyplot as pltimport numpy as npfrom sklearn.datasets.samples_generator import make_blobs# 生成数据centers = [[-2, 2], [2, 2], [0, 4]]X, y = make_blobs(n_samples=600, centers=cente...原创 2018-12-10 22:06:36 · 290 阅读 · 0 评论 -
KNN回归
import matplotlib.pyplot as pltimport numpy as np# 生成训练样本n_dots = 40X = 5 * np.random.rand(n_dots, 1)y = np.cos(X).ravel()# 添加一些噪声y += 0.2 * np.random.rand(n_dots) - 0.1# 训练模型from sklearn...原创 2018-12-10 22:07:31 · 884 阅读 · 0 评论 -
线性回归
from sklearn.linear_model import LinearRegression #线性回归from sklearn.preprocessing import PolynomialFeatures #多项式类from sklearn.pipeline import Pipeline #管道 串联两个类import nump...原创 2018-12-10 22:10:22 · 279 阅读 · 0 评论 -
逻辑回归
参考:逻辑回归实现class LogisticReressionClassifier: def __init__(self, max_iter=200, learning_rate=0.01): self.max_iter = max_iter self.learning_rate = learning_rate def ...原创 2018-12-10 22:11:19 · 427 阅读 · 0 评论 -
决策树
决策树的构建,就是从训练数据集中归纳出一组分类规则,使它与训练数据矛盾较小的同时具有较强的泛化能力。有了信息增益来量化地选择数据集的划分特征,使决策树的创建过程变得容易,主要分几步:1.计算数据集划分前的信息熵2.遍历所有未作未划分条件的特征,分别计算根据每个特征划分数据集后的信息熵3.选择信息增益最大的特征,并使用这个特征作为数据划分节点来划分数据4.递归地处理被划分后的所有子数...原创 2018-12-12 21:52:57 · 410 阅读 · 0 评论
分享