内容概述
在线Latex公式
这节课对不住了,学过ng的深度学习和李宏毅的机器学习课程BP这块应该是理解比较深刻了,尤其是李宏毅的课程,在讲反向传播的时候提出了反向传播也是一个神经网络的观点,当然这节课的视频观看了以后也有一些收获,大概的简略的记录一下,这次课是由Serena Yeung(00后美女)来讲的,引入部分的思路和ng一样,用的是计算图(Computer Graph),可以看下ng深度学习课程第一门课2.7部分。
模块化
这里有所不一样的是,Serena在课程中提到了模块化的概念,也就更加直观的解释了为什么深度学习就好像是搭乐高!
门
还有一个新概念就是门(gate):任何可微分的函数都可以看做门。可以将多个门组合成一个门,也可以根据需要将一个函数分拆成多个门。
还有最大值门:
一维BP实现:
貌似这里就是现在的一些深度学习框架学习使用的原理,老师给出了PyTorch的代码可以感受一下:
向量化BP实现
这里看得有点蒙,还是觉得ng的notation容易理解。。。