
deeplearning.ai笔记
文章平均质量分 79
catbird233
这个作者很懒,什么都没留下…
展开
-
deep learning.ai 第一课笔记-神经网络和深度学习
第二周:神经网络基础numpy中的广播:一个(m,n)的矩阵加减乘除(1,n)或者(m,1)的A向量,python会自动把A向量变成(m,n)维度Eg: 在写代码中不要用shape=(5,)这种秩为1的数据类型,它既不是行向量也不是列向量,记得reshape(1,5)或者(5,1) 神经网络中,比如a[m](i),方括号中的m表示神经网络第m层,圆括号里面的i表示训练...原创 2018-08-12 22:34:23 · 240 阅读 · 0 评论 -
吴恩达deeplearning.ai class 1 week 3 : Planar data classification with one hidden layer
Planar data classification with one hidden layerWelcome to your week 3 programming assignment. It’s time to build your first neural network, which will have a hidden layer. You will see a big differ...原创 2018-08-14 19:38:48 · 299 阅读 · 0 评论 -
吴恩达deeplearning.ai class 1 week 4_1 : Building your Deep Neural Network - Step by Step v4
Building your Deep Neural Network: Step by StepWelcome to your week 4 assignment (part 1 of 2)! You have previously trained a 2-layer Neural Network (with a single hidden layer). This week, you will...原创 2018-08-14 19:45:24 · 323 阅读 · 0 评论 -
吴恩达deeplearning.ai class 1 week 4_2 : Deep Neural Network - Application v3
Deep Neural Network for Image Classification: ApplicationWhen you finish this, you will have finished the last programming assignment of Week 4, and also the last programming assignment of this cour...原创 2018-08-14 19:50:24 · 270 阅读 · 0 评论 -
deep learning.ai 第四课笔记-卷积神经网络
第一周:卷积神经网络 1.padding:步长为1时,为了不让卷积后的图像变小,以及削弱边缘信息丢失的缺点,可以在原始图像边缘填充像素,再进行卷积。比如说,过滤器f是3*3,原始图像n是6*6,那么得到的输出就是n-f+1=4*4,padding=1时,即在原始图像外周填充一层像素,则输出为n+2p-f+1=6*6,和原始输入一样。 步长为s时2.关于卷积层的总结...原创 2018-08-23 18:24:55 · 228 阅读 · 0 评论 -
deep learning.ai 第五课笔记 -序列模型
第一周:循环序列模型1.循环神经网络的反向传播如下2.几种序列模型的结构3.nlp可以用字符或者词汇的模型,字符的模型不会出现位置字符,但是字符的模型训练量巨大,因为一句话可以只有10~20个单词,但可能会有很多字符,所以现有的自然语言处理的趋势是使用词汇的模型4.如果遇到梯度爆炸,比如参数为Nan或者未知字符或者特别大出现数值溢出时,可以用梯度修剪方法,即观察参数,如...原创 2018-08-28 20:46:26 · 224 阅读 · 0 评论 -
deep learning.ai 第二课笔记-改善深层神经网络:超参数调试、正则化以及优化
第一周:深度学习的实用层面1.数据集的划分:过程一般是训练集进行训练,验证集进行模型的迭代验证寻找最好的模型,最后在测试集上无偏评估。当需要无偏估计时:划分为训练集,验证集,测试集不需要无偏估计时:也可以划分为训练集和验证集 2.对于偏差和方差的问题,高偏差对数据的拟合不够好-欠拟合,高方差则是过拟合。为了理解偏差和方差,需要理解训练集错误率和验证集错误率。如果...原创 2018-08-21 18:14:44 · 371 阅读 · 0 评论