
机器学习(Machine Learning)
文章平均质量分 79
勉旃
不认命,心中所愿皆能实现;不将就,不为世俗只为热爱。
展开
-
K-近邻(KNN)算法
物以类聚,人与群分。 ——《易经》1、模型原理 最简单最初级的分类器是将全部的训练数据所对应的类别都记录下来,当测试对象的属性和某个训练对象的属性完全匹配时,便可以对其进行分类。但是怎么可能所有测试对象都会找到与之完全匹配的训练对象呢,其次就是存在一个测试对象同时与原创 2017-11-18 22:10:47 · 692 阅读 · 0 评论 -
Python中从头开始实现神经网络 - 介绍
原文出处: http://www.wildml.com/2015/09/implementing-a-neural-network-from-scratch/ Posted on September 3, 2015 by Denny Britz 这篇文章帮助我们用python实践一下从零开始训练一个神经网络。 以下是中文翻译:获取代码 在这篇文章中,我们将从头开始实现一个简单的3层神原创 2018-09-05 20:13:03 · 963 阅读 · 0 评论 -
牛顿法与Hessian矩阵
牛顿法 主要有两方面的应用:1.求方程的根;2.求解最优化方法;一. 为什么要用牛顿法求方程的根?问题很多,牛顿法 是什么?目前还没有讲清楚,没关系,先直观理解为 牛顿法是一种迭代求解方法。 假设 f(x) = 0 为待求解方程,利用传统方法求解,牛顿法求解方程的公式:f(x0+Δx) = f(x0) + f′(x0) Δx 即 f(x) = f(x0) + f...转载 2018-03-13 10:52:40 · 3871 阅读 · 0 评论 -
梯度下降的三种形式——BGD、SGD、MBGD
机器学习里面,梯度下降法可以说是随处可见,虽然它不是什么高大上的机器学习算法,但是它却是用来解决机器学习算法的良药。我们经常会用到梯度下降法来对机器学习算法进行训练。 BGD,SGD,MBGD。也就是批量梯度下降法BGD,随机梯度下降法SGD,小批量梯度下降法MBGD。下面这篇文章对这三个概念讲解的很到位: http://www.cnblogs.com/maybe2030/p/5089753.h原创 2018-01-19 17:48:41 · 4670 阅读 · 0 评论 -
决策树算法
1、决策树概念 决策树(Decision Tree)是通过一系列规则对数据进行分类的过程。它提供一种在什么条件下会得到什么值的类似规则的方法。决策树分为分类树和回归树两种,分类树对离散变量做决策树,回归树对连续变量做决策树。 决策树可以看做一个树状预测模型,它是由节点和有向边组成的层次结构。树中包含3中节点:根节点、内部节点、叶子节点。 决策树只有一个根节点,是全体训练数据的集合。 树中每...原创 2018-01-08 21:36:44 · 982 阅读 · 0 评论 -
Windows7上安装TensorFlow——基于Docker镜像
Docker 是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的 Linux 机器上,也可以实现虚拟化。当你通过 Docker 安装和运行 TensorFlow 时,它与你机器上之前已安装的软件包完全隔离。docker 镜像安装的优缺点: 优点:适合在大量相同环境机器构成的集群上批量部署。 缺点:增加了 Docker 学习成本。官原创 2017-12-13 10:20:10 · 684 阅读 · 0 评论 -
LIBSVM使用方法
1、 Libsvm下载下载libsvm的最新版本,下载地址为http://www.csie.ntu.edu.tw/~cjlin/libsvm/ 目前最新版本为libsvm-3.22 将libsvm-3.22.zip解压,我的解压到了F:\libsvm。 添加环境变量到path:我的电脑->属性->高级->环境变量->系统变量->变量列表里面双击 Path,在变量值最后添加;F:\libs原创 2018-01-07 22:03:50 · 35232 阅读 · 3 评论 -
一些机器学习数据集(Dataset)
转自:http://blog.youkuaiyun.com/myarrow/article/details/518286811. CIFAR-10 & CIFAR-100 CIFAR-10包含10个类别,50,000个训练图像,彩色图像大小:32x32,10,000个测试图像。 (类别:airplane,automobile, bird, cat, deer, dog, f转载 2018-01-16 09:23:19 · 2812 阅读 · 0 评论 -
交差验证
交叉验证(Cross-Validation)一般要满足: 1)训练集的比例要足够多,一般大于一半 2)训练集和测试集要均匀抽样1、训练数据集,交叉验证数据集,测试数据集的作用 参考:http://blog.youkuaiyun.com/wu_nan_nan/article/details/70169836 在Andrew Ng的机器学习教程里,会将给定的数据集分为三部分:训练数据集(tr原创 2017-12-29 21:38:42 · 699 阅读 · 0 评论 -
PCA之奇异值分解
PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用奇异值分解去实现的。 在机器学习领域,有相当多的应用与奇异值都可以扯上关系原创 2018-01-14 22:17:58 · 1599 阅读 · 0 评论 -
监督学习&无监督学习
(Supervised Learning & Unsupervised Learning)转自:http://blog.youkuaiyun.com/zb1165048017/article/details/48579677前言机器学习分为:监督学习,无监督学习,半监督学习(也可以用hinton所说的强化学习)等。在这里,主要理解一下监督学习和无监督学习。监督学习(supervis转载 2017-11-23 20:51:20 · 673 阅读 · 0 评论 -
单变量线性回归
模型表示线性回归(Linear Regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归。详细描述之前的房屋交易问题为例,假使我们回归问题的训练集(Training Set)如下表所示:我们将要用转载 2017-12-01 16:36:23 · 1064 阅读 · 0 评论 -
sklearn的认识
转自:http://www.cnblogs.com/magle/p/5638409.html简介 自2007年发布以来,scikit-learn已经成为Python重要的机器学习库了。scikit-learn简称sklearn,支持包括分类、回归、降维和聚类四大机器学习算法。还包含了特征提取、数据处理和模型评估三大模块。 sklearn是Scipy的扩展,建立在NumPy和转载 2017-11-21 21:37:43 · 642 阅读 · 1 评论 -
最小二乘回归
最小二乘法(Least squares又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。最小二乘法还可用于曲线拟合。其他一些优化问题也可通过最小化能量或最大化熵用最小二乘法来表达。 ---来自百度百科“最小二乘法”的核心就是保证所有数据偏差的平方和最小。原创 2017-11-21 21:15:20 · 13619 阅读 · 0 评论 -
最值得看的十大机器学习公开课
转自:https://www.leiphone.com/news/201701/0milWCyQO4ZbBvuW.html导语:入门机器学习不知道从哪着手?看这篇就够了。 在当下的机器学习热潮,人才匮乏十分显著。截至目前,国内开设人工智能(AI)专业的高校不多,相当多的开发者是跨界入门,需要自学大量知识并摸索。因而优质的学习资源至关重要。因此,雷锋网搜集了全世界范围内最转载 2017-11-20 15:22:15 · 16069 阅读 · 3 评论 -
MATLAB 中搭建MatConvNet运行环境(调用GPU运行)以及遇到的错误
安装 MATLAB、VS、CUDAMatConvNet点击下载我的环境:Windows 10 64bitMATLAB R2014bVS2015CUDA9.21、编译第一步:>>mex -setup >>mex -setup C++由于使用Matlab需要混合编译时,MATLAB版本与VS版本应该相对应。即VS2015对应MA...原创 2018-09-07 17:41:14 · 3310 阅读 · 0 评论