
机器学习
文章平均质量分 87
越努力越幸运@
研究生
展开
-
向 量 化 实 现 的 解 释 ( Justification for vectorized implementation)
3.5 向 量 化 实 现 的 解 释 ( Justification for vectorizedimplementation) 在上一个视频中,我们学习到如何将多个训练样本横向堆叠成一个矩阵𝑋,然后就可以推导出神经网络中前向传播(forward propagation)部分的向量化实现。 在这个视频中,我们将会继续了解到,为什么上一节中写下的公式就是将多个样本向量化的正确实现。 我们先手动对几个样本计算一下前向传播,看看有什么规律: 公式 3.16: z[1](1){{z}^{[1].原创 2022-06-20 11:02:32 · 415 阅读 · 0 评论 -
多样本向量化(Vectorizing across multiple examples)
3.4 多样本向量化(Vectorizing across multiple examples) 在上一个视频,了解到如何针对于单一的训练样本,在神经网络上计算出预测值。 在这个视频,将会了解到如何向量化多个训练样本,并计算出结果。该过程与你在逻辑回归中所做类似。 逻辑回归是将各个训练样本组合成矩阵,对矩阵的各列进行计算。神经网络是通过对逻辑回归中的等式简单的变形,让神经网络计算出输出值。这种计算是所有的训练样本同时进行的,以下是实现它具体的步骤:图 3.4.1 上一节视频中得到的四个等原创 2022-06-17 15:22:57 · 225 阅读 · 0 评论 -
吴恩达视频-第一门课第3周3.3节-计算一个神经网络的输出(Computing a Neural Network‘s output)
计算一个神经网络的输出(Computing a Neural Network’soutput) 在上一节的视频中,我们介绍只有一个隐藏层的神经网络的结构与符号表示。在这节的视频中让我们了解神经网络的输出究竟是如何计算出来的。 首先,回顾下只有一个隐藏层的简单两层神经网络结构: 图 3.3.1 其中,𝑥表示输入特征,𝑎表示每个神经元的输出,𝑊表示特征的权重,上标表示神经网络的层数(隐藏层为 1),下标表示该层的第几个神经元。这是神经网络的符号惯例,下同。 神经网络的计算 关于...原创 2022-06-16 08:43:52 · 171 阅读 · 0 评论 -
吴恩达视频-第一门课第3周3.2节-神经网络的表示(Neural Network Representation)
3.2 神经网络的表示(Neural Network Representation) 先回顾一下我在上一个视频画几张神经网络的图片,在这次课中我们将讨论这些图片的具体含义,也就是我们画的这些神经网络到底代表什么。 我们首先关注一个例子,本例中的神经网络只包含一个隐藏层(图 3.2.1)。这是一张神经网络的图片,让我们给此图的不同部分取一些名字。 图 3.2.1 我们有输入特征x1{{x}_{1}}x1、x2{{x}_{2}}x2、x3{{x}_{3}}x3,它们被竖直地堆叠起来,这叫原创 2022-06-16 06:50:10 · 138 阅读 · 0 评论 -
吴恩达视频-第一门课1.4、1.5、1.6节-为什么深度学习会兴起?(Why is Deep Learning taking off?)
1.4 为什么深度学习会兴起?(Why is Deep Learning taking off?):本节视频主要讲了推动深度学习变得如此热门的主要因素。包括数据规模、计算量及算法的创新。1.5 关于这门课(About this Course)1.6 课程资源(Course Resources)原创 2022-04-28 15:03:45 · 105 阅读 · 0 评论 -
吴恩达笔记-神经网 络 和深度 学 习 (Neural Networks and Deep Learning)
吴恩达笔记,相应视频在b站上可以搜到,第一门 课 神经网络和深度学习 (Neural Networks and Deep Learning)-第一周:深度学习引言(Introduction to Deep Learning)第一个视频主要讲了什么是深度学习,深度学习能做些什么事情。...原创 2022-04-26 20:29:24 · 223 阅读 · 0 评论