
深度学习
小四姑娘
这个作者很懒,什么都没留下…
展开
-
深度总结4--BN算法原理
1.什么是BN2.为什么BN算法可以解决梯度消失与梯度爆炸的问题3.Batch Normalization和Group Normalization的比较4.Batch Normalization在什么时候用比较合适?一、什么是BN?Batch Normalization是2015年一篇论文中提出的数据归一化方法,往往用在深度神经网络中激活层之前。其作用可以加快模型训练时的收敛速度,使得模...原创 2020-04-07 10:45:07 · 1415 阅读 · 0 评论 -
深度学习总结3
序言:上一讲中我们谈到了Batch_size的选取以及其大小对模型效果的影响,那么在这一讲中,我们来总结一下归一化。1.为什么要归一化2.归一化的优点3.归一化有哪些类型4.局部响应归一化作用一、为什么要归一化1.避免神经元饱和。就是当神经元的激活在接近 0 或者 1 时会饱和,在这些区域,梯度几乎为 0,这样,在反向传播过程中,局部梯度就会接近 0,这会有效地“杀死”梯度。2.保证...原创 2020-04-04 15:18:53 · 194 阅读 · 0 评论 -
深度学习总结2
序言:上一节中我们重点总结了激活函数,那么这一次我们着重讲一下Bacth_size。每天总结一点,每天进步一点,厚积薄发,总是可以滴水穿石的。1.为什么需要Batch_size?2.Batch_size值的选择3.在合理的范围内,增大Batch_size有何好处4.盲目增大Batch_size有何坏处一、为什么需要Batch_size?在这里我们需要明白batch_size,epoch...原创 2020-04-03 10:12:08 · 399 阅读 · 0 评论 -
深度学习总结1
序言:当我们面临一个全新的知识的时候,最好学习的办法就是先去了解它的一个大概框架,然后再深抠某个点,在学习的过程中,不断的总结,不断的思考,这样才会有提高,我想这也是为什么写这一系列博客的原因。秋招在即,很多知识点似是知道,却当面试官问起来一知半解。因此,该一系列博客对当前深度学习中比较基础的知识点进行总结,若有错误的地方,恳请大家指正。深度学习和机器学习有什么不同为什么深层神经网络难以训练...原创 2020-04-01 15:44:14 · 336 阅读 · 0 评论 -
Keras读取数据的几种方式
一、keras.preprocessing.image.load_img()读取单张图像在这里需要将需要的包加载进来import osfrom keras.preprocessing.image import load_img, img_to_array,imageimport matplotlib.pyplot as plt详情可见原文链接:https://blog.youkuaiyun.com/...原创 2019-12-29 11:48:06 · 2114 阅读 · 0 评论 -
如何使用Keras fit和fit_generator(动手教程)
如何使用Keras fit和fit_generator(动手教程)https://blog.youkuaiyun.com/learning_tortosie/article/details/85243310转载 2019-12-28 11:39:05 · 148 阅读 · 0 评论 -
python skimage在图像处理中的用法
python skimage在图像处理中的用法:https://blog.youkuaiyun.com/mieleizhi0522/article/details/82113337转载 2019-12-26 22:27:09 · 156 阅读 · 0 评论 -
深度学习中的Normalization模型
**深度学习中的Normalization模型一. 从Mini-Batch SGD说起二. Normalization到底是在做什么三. Batch Normalization如何做3.1 前向神经网络中的BN3.2 CNN网络中的BN3.3 Batch Norm的四大罪状四. Layer Normalization、Instance Normalization及Group Nor...转载 2019-12-15 13:12:51 · 256 阅读 · 0 评论