
深度学习
文章平均质量分 61
sLuca_Tian
这个作者很懒,什么都没留下…
展开
-
吴恩达卷积神经网络学习笔记【第二周 深度卷积神经网络】
吴恩达卷积神经网络学习笔记【第二周 深度卷积神经网络】 目录 吴恩达卷积神经网络学习笔记【第二周 深度卷积神经网络】 2.1实例探究 2.2 经典网络 LeNet AlexNet VGG-16 VGG-19 2.3残差网络 2.1实例探究 在图像识别方面 效果好的神经网络框架往往具有借鉴性; 2.2 经典网络 推荐了两篇论文 AlexNet大概有6000w参数 而 LeNet只有60K 因此AlexNet可以识别区分很多相似的特征 VGG网络结构很有规律 图像缩小和信道增加...原创 2021-03-20 14:31:15 · 265 阅读 · 0 评论 -
吴恩达卷积神经网络学习笔记【第一周 卷积神经网络】
第一周 卷积神经网络 目录 第一周 卷积神经网络 1.1 计算机视觉 1.2 1.3 边缘检测 1.4 Padding 1.5 卷积步长 1.6 卷积为何有效 1.7 单层卷积网络 1.8 简单卷积网络示例 1.9 池化层 1.9.1最大池化 1.9.2平均池化 1.10 采用全连接的卷积神经网络示例 1.11为什么使用卷积 1.1 计算机视觉 如果采用深度神经网络的话需要大量的存储单元 计算量极大 因此如果要处理 例如1000*1000*3的图片 引入卷积这一操作。 .原创 2021-03-19 22:54:50 · 273 阅读 · 0 评论 -
吴恩达深度学习笔记【第四周 深层神经网络】
第四周---神经网络基础 目录 第四周---神经网络基础 4.1深层神经网络 4.1深层神经网络 神经网络的层数不计算输入层 只包含隐藏层和输出层 可以逐渐加高隐藏层L进行效果测试 n[5] = 为第五层的节点数目 ## 4.2深层神经网络中的前向传播  如何在深层神经网络中有效进行正向和反向传播  利用L 在 for循环中 计算每一层的数据   ## 4.3核对矩阵的维度   ## 为什么用深层表示...原创 2021-03-19 17:20:07 · 390 阅读 · 0 评论 -
吴恩达深度学习笔记【第三周 浅层神经网络】
第三周 浅层神经网络 目录 第三周 浅层神经网络 3.1神经网络概览 3.2神经网络表示(图形的意义) 3.3计算神经网络的输出 3.4多个例子中的向量化 3.5向量化实现的解释 3.6激活函数 3.7为什么需要非线性激活函数 3.8激活函数的导数 3.9神经网络的梯度下降法 3.10直观理解反向传播 3.11随机初始化 3.1神经网络概览 注:上标方括号表示不同的层 上标圆括号表示不同的样本 3.2神经网络表示(图形的意义) 3.3计算神经网络的输出 ..原创 2021-03-18 22:44:52 · 164 阅读 · 0 评论 -
吴恩达深度学习笔记【第二周 神经网络基础】
第二周---神经网络基础 目录 第二周---神经网络基础 2.1 二分分类 2.2 logistic回归 2.3 logistic 回归损失函数 损失函数L(为0-正无穷 所有样本的损失函数L的求和平均值为成本函数J): 成本函数J: 2.4 梯度下降法(如何让利用梯度下降法寻找w b) 2.5 2.6 导数 2.7 2.8 计算图及其导数运算 2.9 logistic回归中的梯度下降法 2.10 m个样本的梯度下降法 2.11 2.12 向量化及其更多例子 2.13 向量化的l原创 2021-03-18 10:44:18 · 415 阅读 · 0 评论 -
吴恩达深度学习笔记 【第一周课程 简介】
目录 P2什么是神经网络? 1.Supervised Learning的应用: 2.数据 P4为什么深度学习会兴起? P2什么是神经网络? relu Function 价格不会为负 多个输入 和限制条件 获得一个预测价格。只需要输入x 就会得到y 所有的中间过程它都会自己完成。 理解:这是一个监督学习的例子,输入多个有关特征的x,y值 神经网络会自己计算每一条边的权值 计算得到一个x到y的精准映射函数。 问题:隐藏层的节点的层数如何确定 ? 人为确定吗? 这个例子...原创 2021-03-16 17:51:44 · 186 阅读 · 0 评论