
hinton教授的本科生课程CSC321-机器学习中的神经网
仙守
1 - 模式识别硕士;
2 - 研究生方向:深度学习,计算机视觉;
3 - 目前工作内容:目标检测,文本识别;
4 - 未来想发展方向:深度学习,机器学习,增强学习;
5 - 目前在用的框架:tensorflow,opencv;
6 - 语言:python(目前在用),cpp(好久没用了),scala(用了半年)
博客园博客(两边内容不完全一致):http://www.cnblogs.com/shouhuxianjian
展开
-
lecture5-对象识别与卷积神经网络
Hinton第五课突然不知道object recognition 该翻译成对象识别好,还是目标识别h原创 2014-11-06 16:46:00 · 3286 阅读 · 3 评论 -
lecture15-自动编码器、语义哈希、图像检索
Hinton第15课,本节有课外读物《Semantic Hashing》和《Using Very Deep Autoencoders for Content-Based Image Retrieval》一、从PCA到AE二、深度AE三、原创 2015-03-11 15:05:59 · 1669 阅读 · 0 评论 -
lecture14-RBM的堆叠、修改以及DBN的决策学习和微调
这是Hinton的第14课,主要介绍了RBM和DBN的东西,这一课的课外读物有三篇论文《Self-taught learning- transfer learning from unlabeled data》和《A Fast Learning Algorithm for Deep Belief Nets》以及《To recognize shapes, first learn to generate原创 2015-03-09 14:56:46 · 4474 阅读 · 0 评论 -
lecture13-BP算法的讨论和置信网
这是HInton课程第13课,这一课有两篇论文可以作为课外读物《Connectionist learning of belief networks》和《The wake-sleep algorithm for unsupervised neural networks》一、BP算法的Ups和downs在这部分,将会介绍BP的历史,先介绍在70和80年代它的来源,然后介绍为什么在90年代它失败原创 2015-03-08 13:35:20 · 1237 阅读 · 0 评论 -
lecture12-玻尔兹曼机和受限玻尔兹曼机
这是Hinton的第12课,结合前一课可以知道RBM是来自BM,而BM是来自Hopfield的,因为水平有限,是直译的,虽然有时候会看不懂,但是好歹不会曲解原来的本意,看的话:1、先看ppt;2、通读下面对应的段落;3、不要纠结某句话不通顺,这是个人翻译水平问题,但是可以看出通读整段话,也能够大致知道这个ppt所表述的意思,而且hinton这门课涉及东西很多,肯定不会在几个视频就说的清楚,也就是这原创 2015-01-13 17:14:57 · 2564 阅读 · 0 评论 -
lecture9-提高模型泛化能力的方法
HInton第9课,这节课没有放论文进去。。。。。如有不对之处还望指正一、提高泛化方法的概述 在这部分中,将会介绍通过减少(当一个模型的数据表现能力大大的超过训练时提供的数据而产生的)过拟合来提高模型的泛化能力,将会介绍不同的方法去控制网络的数据表达能力,并介绍当我们使用这样一种方法的时候如何设置元参数,然后给出一个通过提早结束训练来控制网络能力(其实就是防止过拟合)原创 2014-11-28 14:42:00 · 5671 阅读 · 1 评论 -
lecture11-hopfiled网络与玻尔兹曼机
Hinton课程第11课一、Hopfield网络二、在Hopfield网络中处理原创 2014-12-22 14:27:35 · 2423 阅读 · 0 评论 -
lecture10-模型的结合与全贝叶斯学习
这是Hinton的第10课这节课有两篇论文可以作为背景或者课外读物《Adaptive mixtures of local experts》和《Improving neural networks by preventing co-adaptation of feature detectors》。一、为什么模型的结合是有帮助的二、专家混合系统三、全贝叶斯原创 2014-12-14 22:22:30 · 1651 阅读 · 2 评论 -
lecture7-序列模型及递归神经网络RNN
Hinton 这里先说下RNN有recurrent neural network 和 recursive原创 2014-11-15 16:48:38 · 5974 阅读 · 7 评论 -
lecture8-RNN的训练方法之二三
HInton第8课,之所以说之二三,是因为训练RNN的四种方法之一:长短时记忆在lecture7中介绍过了原创 2014-11-19 22:24:29 · 2055 阅读 · 0 评论 -
lecture4-神经网络在语言上的应用
Hinton第四课这一课主要介绍神经网络在语言处理上应用,而主要是在文本上,并附上了2003年Bengio 等人的19页的论文《A Neural Probabilistic Language Model》,觉得不错,打算看看翻译了在传上来,虽然不是做这方面的,但是多懂些其他领域的东西也好。一、学习去预测下一个单词 通过使用BP去学习单词意思的特征表征,这里先介绍一个1980年原创 2014-11-04 22:24:13 · 1342 阅读 · 0 评论 -
Convolutional Networks for Images,Speech,and Time-series
Convolutional Networks for Images,Speech,and Time-seriesYann LeCun Yoshua Bengio翻译 2014-11-05 21:14:56 · 2207 阅读 · 0 评论 -
lecture3-线性神经元和算法
Hinton第三课一、学习线性神经元的quan'zhon原创 2014-11-03 09:20:46 · 1415 阅读 · 0 评论 -
lecture6-mini批量梯度训练及三个加速的方法
一、mini-批量梯度下降概述二、原创 2014-11-12 10:46:27 · 2395 阅读 · 0 评论 -
lecture2-NN结构的主要类型的概述和感知机
写博客的初衷就是为了记录自己原创 2014-10-27 12:59:43 · 1492 阅读 · 0 评论 -
lecture1-NN的简介
这是DL的发明人Hinton在多伦多大学的2013年冬季教授de课程原创 2014-10-25 15:18:26 · 1931 阅读 · 0 评论 -
lecture16-联合模型、分层坐标系、超参数优化及本课未来的探讨
一、学习一个图像和标题的联合模型二、分层坐标系三、神经网络超参数的贝叶斯优化四、前行的迷雾原创 2015-03-11 16:18:25 · 1087 阅读 · 0 评论