
吴恩达深度学习
黄水生
我比以前更专注?
展开
-
【吴恩达深度学习】Word Embedding 理解
最近在学习吴恩达老师的深度学习–NLP部分课程时,对里面提到的Word Embedding 让我特别费解,完全不能明白是什么意思,经过这几天查阅大佬们的博客,今天终于搞明白是啥意思了,大佬们写的东西都非常好,非常全面,我博客就直接引用进来,顺便在讲讲自己现在对这个概念的理解吧。大佬们的理解:1、Word Embedding与Word2Vec2、自然语言处理(NLP)之Word Embedding强烈建议先看第一篇推荐,写的很好,通俗易懂。Word Embedding 这个在术语是运用数学方法来表原创 2020-09-01 16:55:35 · 912 阅读 · 3 评论 -
吴恩达深度学习课程疑难点笔记系列-结构化机器学习项目-第1周&第2周
本笔记系列参照吴恩达深度学习课程的视频和课件,并在学习和做练习过程中从优快云博主何宽分享的文章中得到了帮助,再此表示感谢。“结构化机器学习项目”这节课的主要学习的内容:介绍一些常用的机器学习项目策略,比如如何设置评估指标、划分数据集、如何分析误差以及定位误差产生的原因,另外也介绍了迁移学习、多任务学习、端到端深度学习的概念这节课学习内容的主要疑难点:如何设置指标如何划分数据集可避免...原创 2020-01-21 22:56:09 · 542 阅读 · 0 评论 -
吴恩达深度学习课程疑难点笔记系列-改善深层神经网络-第3周
本笔记系列参照吴恩达深度学习课程的视频和课件,并在学习和做练习过程中从优快云博主何宽分享的文章中得到了帮助,再此表示感谢。本周主要学习的内容有:调试处理、为超参数选择合适的范围、正则化网络的激活函数、将Batch Norm拟合进神经网络、测试时的Batch Norm、Softmax回归、训练一个Softmax分类器、深度学习框架TensorFlow...原创 2020-01-12 16:08:58 · 321 阅读 · 0 评论 -
吴恩达深度学习课程疑难点笔记系列-改善深层神经网络-第2周
1.指数加权移动平均(exponentially weighted moving average)指数加权移动平均是指:给定超参数0≤λ<10≤\lambda<10≤λ<1,当前时间步t的变量yty_tyt是上一时间步t-1的变量yt−1y_{t-1}yt−1和当前时间步另一变量xtx_txt的线性组合:yt=λyt−1+(1−λ)xt(1)y_t=\lambda y_...原创 2020-01-08 22:32:57 · 244 阅读 · 0 评论 -
吴恩达深度学习课程疑难点笔记系列-改善深层神经网络-第1周
What you should remember from this notebook: - Different initializations lead to different results - Random initialization is used to break symmetry and make sure different hidden units can learn diff...原创 2020-01-04 17:04:34 · 341 阅读 · 0 评论 -
吴恩达深度学习课程疑难点笔记系列-神经网络和深度学习-第4周
本笔记系列参照吴恩达深度学习课程的视频和课件,并在学习和做练习过程中从优快云博主何宽分享的文章中得到了帮助,再此表示感谢。本周主要学习的内容有:深层神经网络、深层网络中的前向传播、核对矩阵的维数、为什么使用深层表示、搭建深层神经网络块、前向和反向传播、参数 VS 超参数、这和大脑有什么关系?一、本周学习主要疑难点L层的含义对于L层神经网络,每层的激活函数输出值我们记为a[l]a^...原创 2019-12-28 16:57:51 · 529 阅读 · 0 评论 -
吴恩达深度学习课程疑难点笔记系列-神经网络和深度学习-第3周
本笔记系列参照吴恩达深度学习课程的视频和课件,并在学习和做练习过程中从优快云博主何宽分享的文章中得到了帮助,再此表示感谢。本周主要学习的内容有:神经网络概览、神经网络表示、计算神经网络的输出、多个例子中的向量化、向量化实现的解释、激活函数、为什么需要非线性激活函数、激活函数的导数、神经网络的梯度下降法、直观理解反向传播、随机初始化一、本周学习内容要点:多神经元网络模型结构,如图1所示...原创 2019-12-22 15:31:27 · 268 阅读 · 0 评论 -
吴恩达深度学习课程疑难点笔记系列-神经网络和深度学习-第2周
For one example x(i)x^{(i)}x(i):z(i)=wTx(i)+b(1)z^{(i)} = w^T x^{(i)} + b \tag{1}z(i)=wTx(i)+b(1)y^(i)=a(i)=sigmoid(z(i))(2)\hat{y}^{(i)} = a^{(i)} = sigmoid(z^{(i)})\tag{2}y^(i)=a(i)=sigmoid(z(i))...原创 2019-12-15 16:13:23 · 405 阅读 · 0 评论