
理论层-统计学
文章平均质量分 79
小丁丁_ddxdd
这个作者很懒,什么都没留下…
展开
-
机器学习--(一)机器学习基础
声明:版权所有,转载请联系作者并注明出处 http://blog.youkuaiyun.com/u013719780?viewmode=contents博主简介:风雪夜归子(英文名: Allen),机器学习算法攻城狮,喜爱钻研Machine Learning的黑科技,对Deep Learning和Artificial Intelligence充满兴趣,经常关注kaggle数据挖掘竞赛平台,对数据、转载 2016-08-16 23:19:41 · 477 阅读 · 0 评论 -
机器学习中的范数规则化之(一)L0、L1与L2范数
来源:http://blog.youkuaiyun.com/zouxy09/article/details/24971995机器学习中的范数规则化之(一)L0、L1与L2范数zouxy09@qq.comhttp://blog.youkuaiyun.com/zouxy09 今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核范数规则化。最后聊下规则化项参数...转载 2018-03-04 12:18:00 · 795 阅读 · 0 评论 -
主成分分析(PCA)原理详解
来源:http://blog.youkuaiyun.com/zhongkelee/article/details/44064401转载请声明出处:http://blog.youkuaiyun.com/zhongkelee/article/details/44064401一、PCA简介1. 相关背景 上完陈恩红老师的《机器学习与知识发现》和季海波老师的《矩阵代数》两门课之后,颇转载 2018-01-20 20:23:19 · 13423 阅读 · 1 评论 -
卷积神经网络工作原理直观的解释
来源:http://mp.weixin.qq.com/s?__biz=MzA4MTk3ODI2OA==&mid=2650340303&idx=1&sn=233f12c3a33f298edfa915bccb22609a&chksm=8780ed3cb0f7642ab0d8d77521fac69cd71b030182eefc6ad64dbcb90f3bc66911f5e8f1c170&mpshare=转载 2017-10-24 11:42:41 · 4256 阅读 · 0 评论 -
梯度下降法
来源:http://www.jianshu.com/p/4f32063825b6梯度下降法是一个用于寻找最小化成本函数的参数值的最优化算法。当我们无法通过分析计算(比如线性代数运算)求得函数的最优解时,我们可以利用梯度下降法来求解该问题。梯度下降法的直觉体验想象一个你经常用来吃谷物或储存受过的大碗,成本函数的形状类似于这个碗的造型。碗表面上的任一随机位置转载 2017-06-01 22:12:12 · 1288 阅读 · 0 评论 -
机器学习中的数学(3)-模型组合(Model Combining)之Boosting与Gradient Boosting
来源:http://www.cnblogs.com/LeftNotEasy/archive/2011/01/02/machine-learning-boosting-and-gradient-boosting.html前言: 本来上一章的结尾提到,准备写写线性分类的问题,文章都已经写得差不多了,但是突然听说最近Team准备做一套分布式的分类器,可能会使用Rando转载 2017-08-24 21:59:59 · 370 阅读 · 0 评论 -
机器学习中的数学(2)-线性回归,偏差、方差权衡
来源:http://www.cnblogs.com/LeftNotEasy/archive/2010/12/19/mathmatic_in_machine_learning_2_regression_and_bias_variance_trade_off.html本文由LeftNotEasy所有,发布于http://leftnoteasy.cnblogs.com。如果转载,请注转载 2017-08-17 23:14:42 · 311 阅读 · 0 评论 -
Deep Learning(深度学习)学习笔记整理系列之(四)
来源:http://blog.youkuaiyun.com/zouxy09/article/details/8775524九、Deep Learning的常用模型或者方法9.1、AutoEncoder自动编码器 Deep Learning最简单的一种方法是利用人工神经网络的特点,人工神经网络(ANN)本身就是具有层次结构的系统,如果给定一个神经网络,我们假设其输出与输入是转载 2017-07-19 22:07:33 · 238 阅读 · 0 评论 -
Deep Learning(深度学习)学习笔记整理系列之(三)
来源:http://blog.youkuaiyun.com/zouxy09/article/details/8775518好了,到了这一步,终于可以聊到Deep learning了。上面我们聊到为什么会有Deep learning(让机器自动学习良好的特征,而免去人工选取过程。还有参考人的分层视觉处理系统),我们得到一个结论就是Deep learning需要多层来获得更抽象的特征表达。那么多少转载 2017-07-19 21:49:25 · 259 阅读 · 0 评论 -
神经网络快速入门:什么是多层感知器和反向传播?
来源:http://tech.huanqiu.com/news/2016-11/9731462.html人工神经网络是一种计算模型,启发自人类大脑处理信息的生物神经网络。人工神经网络在语音识别、计算机视觉和文本处理领域取得了一系列突破,让机器学习研究和产业感到了兴奋。在本篇博文中,我们将试图理解一种称为「多层感知器(Multi Layer Perceptron)」的特定的人工神经网络。转载 2017-06-18 16:20:33 · 3678 阅读 · 0 评论 -
统计学-简单统计概念
----------------协方差在概率论和统计学中,协方差用于衡量两个变量的总体误差。而方差是协方差的一种特殊情况,即当两个变量是相同的情况。期望值分别为E[X]与E[Y]的两个实随机变量X与Y之间的协方差Cov(X,Y)定义为:从直观上来看,协方差表示的是两个变量总体误差的期望。如果两个变量的变化趋势一致,也就是说如果其中一个大于自身的期望值时另外一个也大于自身转载 2016-05-14 16:42:58 · 2416 阅读 · 0 评论 -
决策树补充1
来源:http://www.cnblogs.com/leoo2sk/archive/2010/09/19/decision-tree.html1、摘要在前面两篇文章中,分别介绍和讨论了朴素贝叶斯分类与贝叶斯网络两种分类算法。这两种算法都以贝叶斯定理为基础,可以对分类及决策问题进行概率推断。在这一篇文章中,将讨论另一种被广泛使用的分类算法——决策树(decision tree)。相比贝叶转载 2016-10-09 13:21:32 · 444 阅读 · 0 评论 -
统计学习方法 李航---第5章 决策树
来源:http://www.cnblogs.com/YongSun/p/4767085.html第5章 决策树决策树(decision tree)是一种基本的分类与回归方法。本章主要讨论用于分类的决策树。决策树模型呈树形结构,在分类问题中,表示基于特征对实例进行分类的过程。它可以认为是if-then规则的集合,也可以认为是定义在特征空间与类空间上的条件概率分布。其主转载 2016-10-08 20:12:02 · 1238 阅读 · 0 评论 -
数据标准化
来源:http://blog.youkuaiyun.com/lpxuan151009/article/details/6697743数据的标准化(normalization)是将数据按比例缩放,使之落入一个小的特定区间。在某些比较和评价的指标处理中经常会用到,去除数据的单位限制,将其转化为无量纲的纯数值,便于不同单位或量级的指标能够进行比较和加权。 其中最典型的就是数据的归一化处理,即将数据统一转载 2016-09-11 13:32:32 · 429 阅读 · 0 评论