
深度学习
文章平均质量分 60
深度学习
银河旅客_
清风明月我
展开
-
吴恩达深度学习l2week1编程作业—Initialization
您已经尝试了三种不同类型的初始化。原创 2023-12-25 17:19:40 · 1085 阅读 · 0 评论 -
Neural Networks吴恩达第三周
以第一个node为例,可以看出:上标是第l层,下标是在该层的第i个neuron。它通常被称为列向量,因为它的形状类似于一个包含四个元素的列。这里有两层神经网络,因为input layer不算一层。(4,)表示一个一维数组,其中有四个元素。上标[1]和[2]如下图,表示神经网络层数。x^(i)表示第i个训练样本。无keepdims是(4,)原创 2023-11-23 10:58:15 · 76 阅读 · 0 评论 -
吴恩达深度学习Deep Neural Network for Image Classification: Application 第四周编程答案及讲解(中文)
您可能会注意到,在较少的迭代次数(比如1500次)上运行模型可以在测试集上获得更好的准确性。输入是一个(64,64,3)图像,它被展平为大小为(12288,1)的矢量。相应的矢量:[𝑥0,𝑥1.𝑥12287]𝑇然后乘以权重矩阵𝑊[1] 然后加上截距𝑏[1]。如果您的代码通过了上一个单元格,请运行下面的代码来训练您的参数。输入是一个(64,64,3)图像,它被展平为大小为(12288,1)的矢量。然后,添加一个偏置项并取其relu,得到以下向量:[𝑎[1] 0,𝑎[1] 1,。代码在下面的单元格中给出。原创 2023-12-18 18:51:28 · 1137 阅读 · 0 评论 -
week4 吴恩达深度学习作业答案
原创 2023-12-16 13:49:19 · 526 阅读 · 1 评论 -
吴恩达 week4 Building your Deep Neural Network: Step by Step 编程作业及讲解(中文)
如图5所示,您现在可以将dAL输入到您实现的LINEAR->SIGMOID向后函数中(该函数将使用L_model_forward函数存储的缓存值)。堆叠[LINEAR->RELU]正向函数L-1层(对于层1到L-1),并在末尾添加[LINEAR->SIGMOID](对于最终层𝐿).这将为您提供一个新的L_model_forward函数。使用𝐴[𝐿],您可以计算预测的成本。在下面的代码中,变量AL将表示𝐴[𝐿]=𝜎(𝑍[𝐿])=𝜎(𝑊[𝐿]𝐴[𝐿−1]+𝑏[𝐿])(有时也称为Yhat)原创 2023-12-17 20:13:17 · 1062 阅读 · 1 评论 -
吴恩达深度学习l2week1编程作业—Gradient Checking(中文跑通版)
你是一个致力于在全球范围内提供移动支付的团队的一员,并被要求建立一个深度学习模型来检测欺诈行为——每当有人付款时,你都想看看付款是否可能是欺诈性的,比如用户的账户是否被黑客接管。因为这是一个任务关键型应用程序,您公司的首席执行官希望真正确定您的反向传播实施是正确的。请注意,grad是使用函数gradients_to_vector计算的,该函数使用backward_propation_n函数的梯度输出。也就是,计算关于𝜃的导数𝐽(𝜃)=𝜃𝑥 ,得到𝑑𝑡ℎ𝑒𝑡𝑎=∂𝐽/∂𝜃=x。numerator 分子;原创 2023-12-27 18:56:28 · 1082 阅读 · 0 评论 -
吴恩达深度学习l2week1编程作业—Regularization(中文跑通版)
请注意,正则化会影响训练集的性能!这是因为它限制了网络过拟合到训练集的能力。但是,由于它最终提供了更好的测试准确性,它正在帮助您的系统。我们希望您从此笔记本中记住的内容:正则化将帮助您减少过度拟合。规则化会使权重降低。L2正则化和Dropout是两种非常有效的正则化技术。原创 2023-12-26 20:52:49 · 1004 阅读 · 0 评论 -
Neural Networks and Deep Learning 第一周作业
原创 2023-11-12 10:58:32 · 98 阅读 · 1 评论 -
深度学习吴恩达l2week1quiz(题目全)
原创 2023-12-24 20:38:34 · 436 阅读 · 0 评论