
deep learning
葛小妞
这个作者很懒,什么都没留下…
展开
-
梯度下降法之二
我感觉这个步长的求解,有点像原创 2014-04-29 21:34:03 · 536 阅读 · 0 评论 -
过拟合
hilton 在ImageNet Classfication with Deep Covolutional Neural Networks 文章中原创 2014-05-27 22:31:22 · 759 阅读 · 0 评论 -
lbfgs
认识这个算法也算很久了,最早做图像分类的时候,在余凯的程序,原创 2014-05-20 22:20:20 · 1240 阅读 · 0 评论 -
深度学习 吴立德 第三讲
翻译 2014-04-28 17:20:21 · 1019 阅读 · 0 评论 -
深度学习 吴立德
1. 什么是DL?数据:模型:模型分为三种:线性模型:广义线性模型:非线性模型:ANN (artificial neural network、)2. 准则:损失函数:经验风险:正则项:学习目标:算法:难点:A: 需要训练的参数太多B:优化问题是一个非凸优化C: 深层问题如何调节权重翻译 2014-04-28 16:59:00 · 1301 阅读 · 0 评论 -
稀疏编码
在讲稀疏编码之前,我们首先来了解一下稀疏表示的该暖宝翻译 2014-04-28 18:00:54 · 741 阅读 · 0 评论 -
BFGS 算法
BFGS 算法是拟牛顿算法的一种。我们知道不管是梯度下降、共轭梯度、还是牛顿法,我们都要解决两个问题,一个是下降方向,一个是搜索步长。搜索步长我们一般采取的方法是用满足wolf 条件的线搜索。本节我们主要介绍BFGS 算法。对于这个算法。我们首先需要知道的是它是一个秩为2的算法。以及它为什么可以用来计算的原因。原创 2014-05-16 22:45:27 · 2775 阅读 · 1 评论 -
deep learning
不的不说的是深度学习很火,火到我没有办法不认真学习一下它。翻译 2014-04-21 22:22:44 · 469 阅读 · 0 评论 -
pca 与 whitening
主成分分析是经常用到的。最近在xuexi原创 2014-05-05 20:11:06 · 571 阅读 · 0 评论 -
深度学习 第四讲
梯度下降:随机梯度下降:原创 2014-04-29 14:51:18 · 614 阅读 · 0 评论 -
梯度下降
梯度下降: 如果已知函数的表达式,比如:我们首先求这个函数的偏导数然后根据回溯算法求步长:这是标准的梯度下降算法。但是我今天见了两个梯度下降算法:一个是丕子 写的:他的步长是用求hessian 阵的方法一个在网上找的heart 数据集的步长是设定的一个很小的数;我自己在想,如果我把这个步长改的大一点,是不是迭代次数会少很多。丕子的梯度下降:翻译 2014-04-29 20:29:18 · 573 阅读 · 0 评论