
深度学习_计算机视觉
痴痴痴痴痴痴。
公众号「GitPython」作者。欢迎关注,获取更多编程干货。
展开
-
为什么要用卷积神经网络?
结合吴恩达前辈deeplearning.ai 的卷积神经网络课程,我想我对卷积神经网络有了进一步深刻的了解。下面是我做的一些学习笔记,如果有不对的地方,欢迎一起讨论。 目录 什么是卷积? 什么是池化? 为什么要用卷积神经网络? 卷积神经网络是怎么减少参数的? 为什么要用很深层的神经网络? 1.什么是卷积? 用3*3 的卷积核对图像进行卷积遍历,对应元素相乘然后求和,得到特征图的过程,就是卷积。...原创 2019-01-09 12:25:26 · 7112 阅读 · 6 评论 -
吴恩达深度学习课后作业第二周_逻辑回归_猫的识别
案例:猫的二分类 数据集:train_catvnoncat.h5 、 test_catvnoncat.h5 逻辑回归、梯度下降 目录 1.使用h5py加载数据 2.查看数据信息 (以字典的方式提取) 3.提取图片以及标签(包含随机可视化一个样本) 4. 前向传播 5. 优化部分(梯度下降) 6. 预测、准确率 7. 不同学习率的比较 与之前作业的比较 1、使用 h5py 来读取图像文件,每一...原创 2019-01-27 20:20:29 · 1406 阅读 · 0 评论 -
优化深层网络--激活函数、正则化以及权重初始化
优化深层网络–第一篇 目录 1.激活函数 (sigmoid、tanh、relu、relu变体) 2.正则化 (l1、l2、dropout) 3.权重初始化 (0、随机数、x、he) 参考文献 1、常用激活函数的比较 2、cs231n 课件_lecture6 3、ng优化深层网络 4、l1和l2正则化区别 1 激活函数 (1)sigmoid 存在的问题: 1)Sigmoid函数饱和使梯度消失...原创 2019-02-02 11:13:35 · 1453 阅读 · 0 评论 -
吴恩达深度学习课后作业第五周-权重初始化以及正则化
init_utils.py 初始化部分的数据集和模型加载都在这个文件内 reg_utils.py 正则化部分的数据集和模型加载都在这个文件内 第一部分:初始化参数 1.1:使用0来初始化参数。 1.2:使用随机数来初始化参数。 1.3:使用抑梯度异常初始化参数(参见视频中的梯度消失和梯度爆炸)。 import numpy as np import matplotlib.pyplot as pl...原创 2019-02-02 11:14:13 · 893 阅读 · 0 评论 -
优化深层网络2--mini batch、momentum、RMSprop、Adam
*目录 1.mini-batch 2.指数加权平均 3.momentum 4.RMSprop 5.Adam 6.学习率衰减 1.mini-batch batch gradient descent: 把整个数据集当成一个批次,参数在遍历整个数据集后更新,每一次迭代的时间太长。 mini-batch gradient descent: 把数据集分成若干个批次,参数在遍历一个批次数据后更新,把整个数据...原创 2019-02-03 15:59:47 · 388 阅读 · 0 评论 -
吴恩达深度学习课后作业第三周——带一个隐含层的神经网络
如图,要实现这种非线性的分类,逻辑回归已经不能很好的解决问题了,那么,我们试着用带有一个隐含层的神经网络来解决一下试试呢? 可能代码写的不够规范,把一些assert的部分去掉了,而且有一些测试没有做,但是,不影响输出,哈哈哈。 Let us go. 目录 1 加载、查看数据集 2 先用逻辑回归查看分类效果(基于sklearn) 3 定义神经网络结构 (每一层节点的个数) 4 初始化模型的参数 ...原创 2019-01-30 18:55:35 · 1593 阅读 · 0 评论