sklearn机器学习算法原理及实践
文章平均质量分 58
aligoo_
...
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
机器学习介绍
本文主要参考 scikit-learn机器学习 常用算法原理及编程实践 源码连接http://www.hzcourse.com/web/refbook/detail/7641/226 本文包括 介绍机器学习应用,机器学习的分类,机器学习开发的典型步骤 1介绍机器学习应用 得益于摩尔定律,计算机硬件(CPU、GPU)为很多通过大量数据学习的算法提供很好的条件,这类算法称为机器学习算法。 传...原创 2018-12-02 11:46:50 · 403 阅读 · 0 评论 -
信息增益——信息熵
熵是一个热力学中表征物质状态的参量之一,物理意义为:体系混乱程度的度量。 信息熵是为了解决信息量化问题。香浓【】认为,一条信息的信息量和它的不确定性有直接关系。一个问题的不确定性越大,要搞清楚这个问题,需要了解的信息就越多,其信息熵就越大。 横坐标...原创 2018-12-08 16:19:23 · 1139 阅读 · 0 评论 -
numpy基本操作
# coding: utf-8 # # numpy基本操作 # # NumPy系统是Python的一种开源的数值计算扩展。这种工具可用来存储和处理大型矩阵。 # 更多操作参考http://www.runoob.com/numpy/numpy-tutorial.html # # numpy reshape # # reshape() # revel()...原创 2018-12-10 22:04:42 · 317 阅读 · 0 评论 -
KNN分类
import matplotlib.pyplot as plt import numpy as np from sklearn.datasets.samples_generator import make_blobs # 生成数据 centers = [[-2, 2], [2, 2], [0, 4]] X, y = make_blobs(n_samples=600, centers=cente...原创 2018-12-10 22:06:36 · 290 阅读 · 0 评论 -
KNN回归
import matplotlib.pyplot as plt import numpy as np # 生成训练样本 n_dots = 40 X = 5 * np.random.rand(n_dots, 1) y = np.cos(X).ravel() # 添加一些噪声 y += 0.2 * np.random.rand(n_dots) - 0.1 # 训练模型 from sklearn...原创 2018-12-10 22:07:31 · 884 阅读 · 0 评论 -
线性回归
from sklearn.linear_model import LinearRegression #线性回归 from sklearn.preprocessing import PolynomialFeatures #多项式类 from sklearn.pipeline import Pipeline #管道 串联两个类 import nump...原创 2018-12-10 22:10:22 · 279 阅读 · 0 评论 -
逻辑回归
参考:逻辑回归实现 class LogisticReressionClassifier: def __init__(self, max_iter=200, learning_rate=0.01): self.max_iter = max_iter self.learning_rate = learning_rate def ...原创 2018-12-10 22:11:19 · 427 阅读 · 0 评论 -
决策树
决策树的构建,就是从训练数据集中归纳出一组分类规则,使它与训练数据矛盾较小的同时具有较强的泛化能力。有了信息增益来量化地选择数据集的划分特征,使决策树的创建过程变得容易,主要分几步: 1.计算数据集划分前的信息熵 2.遍历所有未作未划分条件的特征,分别计算根据每个特征划分数据集后的信息熵 3.选择信息增益最大的特征,并使用这个特征作为数据划分节点来划分数据 4.递归地处理被划分后的所有子数...原创 2018-12-12 21:52:57 · 410 阅读 · 0 评论
分享