对深度学习一直没找到系统的中文资料,在优酷找到了吴立德老师2013年开的深度学习课程视频。花三天简单看了一下,做一个简单总结,供没看过的人士参考要不要看及要看哪几集。此课程一共十四个课时
视频地址:http://www.youku.com/playlist_show/id_21508721.html
Part1 基础知识(1-3节)
1 概述
讲了ML的问题的三个基本方面:数据、模型和准则。准则可以理解为模型的优化目标。
此后全文对每个模型的讲解都是从这三个方面来讲。
深度学习(DL)的最大困难:可训练参数太多,非凸优化,解释困难(可以通过可视化手段改善)。
深度学习成功的运用场景:语音识别和目标识别。在NLP中达到了传统方法的效果。
解决DL学习问题的三种手段:卷积(褶积)神经网络(CNN),限制玻尔兹曼机(RBM)和自动编码机(AE)
2 前馈神经网BP算法
主要讲解了传统神经网络的训练方法,对梯度下降法进行了详细说明。对BP算法进行了细致的推倒。
3 学习优化问题&稀疏编码
前半部学习优化问题主要搭建了多层神经网络的框架。
后半部介绍了稀疏编码的思想和相对应的准则。
Part2 深度学习理论(4-9节)
4 DN&&DL
DN是一个深度的前馈神经网络(FNN)+分类器。
先讲了线性回归、logistic回归和SVM分类器三种分类手段。
DL面临的主要问题:参数多、非凸、梯度弥散。
5 自编码器&&逐层学习
DL的第一种实现方法:自编码器。每层使用一个三层的前馈神经网络,令输入和输出相同来实现自编码器。
步骤:先利

这篇博客是对复旦大学吴立德教授2013年深度学习课程的总结,涵盖了基础知识、深度学习理论和应用三个方面。课程强调了深度学习在解决大量参数、非凸优化和解释性问题上的挑战,并探讨了CNN、RBM和自编码器等解决方案。重点讲解了前馈神经网络的BP算法、稀疏编码、自编码器的逐层学习方法以及卷积神经网络在图像识别中的应用。
最低0.47元/天 解锁文章
5038

被折叠的 条评论
为什么被折叠?



