
机器学习_machine learning
文章平均质量分 84
tina_ttl
这个作者很懒,什么都没留下…
展开
-
常用machine learning数据集
ImageNet:非商业化的可视化大数据截止到2015年5月1日,ImageNet数据库拥有超过1500万的图像。 cifar10:10类物体识别数据集数据集中包含60,000幅32*32图像,共10类物体(6,000幅图像/类)其中,50,000作为training images,10,000作为testing images原创 2016-04-01 10:33:06 · 1291 阅读 · 0 评论 -
李航·统计学习方法笔记·第6章 logistic regression与最大熵模型(2)·最大熵模型
李航·统计学习方法笔记·第6章 logistic regression与最大熵模型(2)·最大熵模型标签(空格分隔): 机器学习教程·李航统计学习方法李航统计学习方法笔记第6章 logistic regression与最大熵模型2最大熵模型最大熵原理1 最大熵原理的基本内容2 最大熵原理的几何意义最大熵模型1 到底应该如何表示分类模型2 最大熵模型的约束条件21 最大熵模型的一个总述原创 2016-12-09 17:17:13 · 5272 阅读 · 5 评论 -
李航·统计学习方法笔记·第6章 logistic regression与最大熵模型(1)·逻辑斯蒂回归模型
第6章 logistic regression与最大熵模型(1)·Logistic回归模型标签(空格分隔): 机器学习教程·李航统计学习方法第6章 logistic regression与最大熵模型1Logistic回归模型Logistic distribution1 一维逻辑斯蒂分布的数学定义2 logistic分布的均值和方差3 何时需要用到Logistic分布二项逻辑斯蒂回归模型及其原创 2016-12-08 15:50:25 · 3826 阅读 · 1 评论 -
低维数据通过核函数映射到高维空间(Gaussian Radial Basis Function)
参考下面是一段matlab代码,可以实现利用Gaussian Radial Basis Function将低维数据映射到高维空间,以二维数据为例:生成一个2D平面figure;axis([-10 10 -10 10])hold ongrid on;利用鼠标在该2D平面上取两组点初始化red = []; %存放第一组点,红色点blue = []; %存放第二组点,蓝色点下面开始手动获取(即用鼠原创 2016-07-07 15:57:35 · 27929 阅读 · 3 评论 -
caffe小问题(2):softmaxWithLoss
caffe中的softmaxWithLoss其实是: softmaxWithLoss = Multinomial Logistic Loss Layer + Softmax Layer其中: Multinomial Logistic Loss Layer 即为交叉熵代价函数 Softmax Layer其实就是指softmax function(全连接那一步在它前面的fc中实现)示意图如下:原创 2016-06-01 16:35:40 · 7903 阅读 · 0 评论 -
机器学习/CNN系列小问题(1):逻辑回归和神经网络之间有什么关系?
本文讨论的关键词:Logistic Regression(逻辑回归)、Neural Networks(神经网络)之前在学习LR和NN的时候,一直对它们独立学习思考,就简单当做是机器学习中的两个不同的models,从来没有放在一起观察过,最近通过阅读网络资料,才发现,原来LR和NN之间是有一定的联系的,了解它们之间的联系后,可以更好地理解Logistic Regression(逻辑回归)和Neural原创 2016-05-31 21:59:36 · 22179 阅读 · 1 评论 -
Coursera《machine learning》--(2)单变量线性回归(Linear Regression with One Variable)
本笔记为Coursera在线课程《Machine Learning》中的单变量线性回归章节的笔记。2.1 模型表示参考视频: 2 - 1 - Model Representation (8 min).mkv 本课程讲解的第一个算法为"回归算法",本节将要讲解到底什么是Model。下面,以一个房屋交易问题为例开始讲解,如下图所示(从中可以看到监督学习的基本流程)。所使用的数据集为原创 2016-04-01 10:30:05 · 1205 阅读 · 0 评论 -
Coursera《machine learning》--(8)神经网络表述
本笔记为Coursera在线课程《Machine Learning》中的神经网络章节的笔记。八、神经网络:表述(Neural Networks: Representation) 本节主要讨论一种叫做神经网络的机器学习算法。首先讨论神经网络的表层结构,在后续的课程中再讨论具体的学习算法。神经网络其实是一个比较古老的算法,它沉寂过一点时间,但现在又成为了许多机器学习的首选技术。8.1 非线原创 2016-04-01 10:30:12 · 2330 阅读 · 0 评论 -
卷积神经网络 cnnff.m程序 中的前向传播算法 数据 分步解析
最近在学习卷积神经网络,哎,真的是一头雾水!最后决定从阅读CNN程序下手!程序来源于GitHub的DeepLearnToolbox由于确实缺乏理论基础,所以,先从程序的数据流入手,虽然对高手来讲,这样有点太小儿科了,但觉得对于个人理解CNN网络的结构和数据流走向有较大帮助! 下面,将要分析CNN的前向传播算法cnnff.m 本程序所用的神经网络的结构如下图的结构体net所示原创 2016-04-01 10:30:38 · 3106 阅读 · 0 评论 -
全连接的BP神经网络
《全连接的BP神经网络》 本文主要描述全连接的BP神经网络的前向传播和误差反向传播,所有的符号都用Ng的Machine learning的习惯。下图给出了某个全连接的神经网络图。1前向传播1.1前向传播分别计算第l层神经元的输入和输出;1.1.1偏执项为1时向量整体形式:分量形式: 1.1.2偏执项为b时向量整体形式:分量形式:原创 2016-04-01 10:30:45 · 15242 阅读 · 3 评论 -
Coursera《machine learning》--(14)数据降维
本笔记为Coursera在线课程《Machine Learning》中的数据降维章节的笔记。十四、降维 (Dimensionality Reduction) 14.1 动机一:数据压缩本小节主要介绍第二种无监督学习方法:dimensionality reduction,从而实现数据的压缩,这样不仅可以减少数据所占磁盘空间,还可以提高程序的运行速度。如下图所示的例子,假设有一个具有很多维原创 2016-04-01 10:30:47 · 1943 阅读 · 0 评论 -
神经网络中的activation function到底扮演什么样的角色
参考Quora 为python作者Sebastian Raschka的回答要回答这个问题,首先从线性回归(Linear Regression)说起,然后过度到逻辑回归(Logistic Regression),最后,过度到神经网络(Neural Network)线性回归(Linear Regression)所谓线性回归问题,就是针对某一个问题(例如:房价的预测问题),利用训练样本求解一个线性模型,原创 2016-05-24 17:26:43 · 3214 阅读 · 0 评论