
吴恩达深度学习
文章平均质量分 92
deaplearning.AI总结(除最后一周)
夜夜0810
这个作者很懒,什么都没留下…
展开
-
吴恩达深度学习总结(15)
自然语言处理与词嵌入词汇表征基于迁移学习训练word embedding步骤类比推理算法Embedding matrixskip gramCBOW负采样GloVe(Global vectors for word representation)情绪分类除偏词汇表征之前我们表示一个词汇都是创建一个词典,然后基于词汇在词典中的位置创建一个在该位置为1其他位置为0的向量表示词汇。比如我们创建一个100...原创 2018-11-13 21:58:00 · 366 阅读 · 0 评论 -
吴恩达深度学习总结(14)
Recurrent Neural Networks循环神经网络的应用符号循环神经网络模型反向传播不同类型的循环神经网络语言模型(language modeling)训练取样GRU,LSTM梯度消失和梯度爆炸Gated Recurrent Unit(GRU)LSTMGRU 与 LSTM对比双向神经网络Deep RNN循环神经网络的应用1.会议识别:输入一段会议的语音信息,输出语音中的内容2. ...原创 2018-11-12 08:58:48 · 291 阅读 · 0 评论 -
吴恩达深度学习总结(13)
人脸识别和风格转换人脸识别分类One-shot learningSigmese networkTriplet lossFace verification和二分类Neural style transfer卷积神经网络可视化Content cost functionContentStyle1D 和 3D卷积核人脸识别分类Verification:一对一识别,给一张照片,看是否是给定的照片Re...原创 2018-11-10 19:59:31 · 461 阅读 · 0 评论 -
吴恩达深度学习总结(12)
Object detectionobject localizationObject detectionYOLO算法object位置的判断判定标准预测值的判断anchor box输出结果的判定Region proposals这一部分其实就是介绍了YOLO模型相关的一些知识object localization首先区分Image classification,classification wit...原创 2018-11-08 16:58:41 · 189 阅读 · 0 评论 -
吴恩达深度学习总结(11)
深度学习具体应用经典网络的学习LeNet-5AlexNetVGG-16Residual Network(残差网络)残差网络为什么有用Network in NetworkInception network迁移学习和数据增强迁移学习数据增强深度学习中一些小知识在竞赛上提高准确度的小方法经典网络的学习LeNet-5上图是LeNet-5的结构(来自吴恩达的课件,下面所有图片均来自于吴恩达课件),该...原创 2018-11-07 20:30:00 · 300 阅读 · 0 评论 -
吴恩达深度学习总结(10)
卷积神经网络computer vision边缘检测paddingstride convolution多个channel的卷积卷积层的实现PoolingFully connected (FC)为什么使用卷积computer vision针对图像任务不能和之前一样直接使用全连接进行,因为如果图片分辨率很高那么向量化之后需要的参数空间很大,不便于计算,于是引入了卷积计算边缘检测边缘检测分为垂直边...原创 2018-11-06 21:25:45 · 222 阅读 · 0 评论 -
吴恩达机器学习总结(9)
Error Analysis进行误差分析清除错误标记的数据针对一个新任务的处理方法训练集和验证集不同分布的处理方法数据分布不匹配的方差和偏差处理数据不匹配问题迁移学习多任务学习端到端的学习进行误差分析对在验证集上识别错误的图片分析对于一个deaplearning model,我们发现在验证集上有一些狗的图片被识别成了猫,针对这种情况,我们需要先获取验证数据集上所有错误标记的图片,统计其中误识...原创 2018-11-06 11:23:00 · 274 阅读 · 0 评论 -
吴恩达深度学习总结(8)
Introduce of ML strategyorthogonalization使损失函数在训练集上匹配使损失函数在验证集上匹配使损失函数在测试集上匹配使损失函数在真实情况下匹配单一数据作为评估标准训练集,验证集和测试集的划分评估标准的确定与人类的准确度进行比较可避免偏差目前机器识别超过人类识别的项目优化模型目的:选择最合适的策略来调节网络orthogonalization使得优化方法尽量...原创 2018-10-30 22:02:49 · 329 阅读 · 0 评论 -
吴恩达深度学习总结(7)
Hyprtparameter tuningTuning processUsing an appropriate scale to pick hyperparametersHyper parameters:Tuning in practiceBatch Normalization实现为什么batch-normalization有用测试softmaxTuning process在一个范围内对超参数...原创 2018-10-30 15:37:00 · 170 阅读 · 0 评论 -
吴恩达深度学习总结(6)
optimization algorithmmini-batch gradient descent定义优点Gradient Descent with momentum基本思想流程加权指数平均介绍直观理解RMSprop(Root Mean Square prop)基本思想流程Adam optimization algorithm学习率衰减原因衰减方法局部最优点mini-batch gradient...原创 2018-10-25 15:15:11 · 275 阅读 · 0 评论 -
吴恩达深度学习总结(5)
深度学习的实用层面数据的划分bias和variance模型训练的基本观点regularization添加范数为什么添加范数可以防止过拟合Dropout定义实现方法优势其他regularization的方法normalization梯度消失和梯度爆炸数据的划分给定一堆数据,我们需要将数据划分为训练集,验证集和测试集。训练集用于训练模型,验证集用于从不同的模型中选出最优的结构,测试集用于检测模型的...原创 2018-10-23 09:29:00 · 173 阅读 · 0 评论 -
吴恩达深度学习总结(4)
DeaplearningAI01weak4深层神经网络神经网络每一层参数的维度为什么要使用深层神经网络Parameters 和 Hyper parameter深层神经网络对于deaplearning而言,隐藏层的数目越多,表明神经网络越深。logistic regression是没有隐藏层的。神经网络每一层参数的维度神经网络共有 LLL 层,n[l]n^{[l]}n[l] 表示每一层节点...原创 2018-10-18 17:14:30 · 313 阅读 · 0 评论 -
吴恩达深度学习总结(2)
DeaplearningAI01.weak3回顾 Logistic Regression浅层神经网络(只有一层隐藏单元)网络中每个符号的含义激活函数的选择可选函数激活函数的选择使用非线性激活函数神经网络的梯度下降梯度下降详解初始化回顾 Logistic Regressionz=ωTx+b→a=σ(z)→L(a,y) z = \omega^Tx + b \to a=\sigma(z) \to ...原创 2018-10-14 21:23:35 · 241 阅读 · 0 评论 -
吴恩达深度学习总结(1)
吴恩达深度学习总结DeaplearningAI01.weak2forwardbackwardDeaplearningAI01.weak2本周主要介绍了神经网络中forward和backward的一般实现和向量实现。一般实现较为简单,向量实现中存在一些疑点X\boldsymbol{X}X 是一个由训练集组成的矩阵,每一列代表一个数据,列数为数据的大小ω\boldsymbol{\omega}ω...原创 2018-10-13 16:16:04 · 432 阅读 · 0 评论