
吴恩达深度学习
文章平均质量分 56
南风知我意95
这个作者很懒,什么都没留下…
展开
-
【吴恩达深度学习L4W1】CNN的基础知识
在现在的深度学习框架中,你只需要实现前向传播,框架负责向后传播,所以大多数深度学习工程师不需要费心处理后向传播的细节,卷积网络的后向传递是有点复杂的。所有我就没学了,但还是把代码放在这里。CNN的一些基础:边缘检测、padding、stride、多通道卷积、单层卷积、简单的卷积模型、pooling、手写数字识别的CNN例子、CNN的优点。(2)搭建cnn网络,进行训练和测试,并画出误差下降曲线。2.CNN的应用手势识别(pytorch版)1.使用原生代码实现卷积网络。1.使用原生代码实现卷积网络。原创 2023-12-24 19:36:47 · 435 阅读 · 1 评论 -
【吴恩达深度学习L2W2】优化算法
如果在此简单数据集上运行更多epoch,则这三种方法都将产生非常好的结果。但是,Adam收敛得更快。构建三层神经网络,使用小批量梯度下降、带冲量的小批量梯度下降、带Adam的小批量梯度下降三种优化算法运行此神经网络,体会不同。1.冲量通常会有所帮助,但是鉴于学习率低和数据集过于简单,其影响几乎可以忽略不计。3.Adam的优势包括:相对较低的内存要求(尽管高于梯度下降和带冲量的梯度下降);3.动量梯度下降、RMSprop、Adam以及学习率衰减。1.批量梯度下降、随机梯度下降、小批量梯度下降。原创 2023-11-30 21:08:56 · 107 阅读 · 0 评论 -
【吴恩达深度学习L2W1】权重初始化、正则化、梯度检验
用0初始化参数L = len(layers_dims) # 网络层数# 使用断言确保我的数据格式是正确的# 随机初始化参数L = len(layers_dims) # 表示层数的整数# 使用 10 倍缩放, 看看如果把w设置的很大会发生什么# 使用断言确保我的数据格式是正确的# he方法初始化参数np.random.seed(3) # 指定随机种子L = len(layers_dims) # 层数# 使用断言确保我的数据格式是正确的# 用0初始化参数,测试效果。原创 2023-11-26 11:32:38 · 154 阅读 · 1 评论 -
【吴恩达L1W4】构建两层和深层神经网络
打印cost,画出cost下降曲线。4.实现反向传播模块(红色图)。初始化两层和深层的神经网络参数。实现正向传播模块(紫色图)。原创 2023-11-16 18:45:32 · 105 阅读 · 1 评论 -
【吴恩达深度学习L1W3】单隐层神经网络分类二维数据
与L1W2内容基本一致,只不过网络更加复杂,包含了一层隐含层。主要案例是通过单隐层的神经网络分类二维数据。直接上代码,千言万语皆在注释中。原创 2023-11-14 18:23:44 · 238 阅读 · 0 评论 -
【吴恩达深度学习L1W2】用神经网络思想实现逻辑回归
案例描述:将学习如何建立逻辑回归分类器用来识别猫。通过这个案例逐步了解神经网络的思维方式,同时磨练对深度学习的直觉。直接上代码,千言万语皆在注释中。原创 2023-11-11 17:11:44 · 138 阅读 · 1 评论