
神经网络和深度学习专栏
在本专栏中,博主将以超详细的分析,尽可能生动具体地描述深度学习的各种算法,优化,同时还会用一个个简单易学的项目带领读者更深刻地理解这些算法的实现
凝望,划过星空.scut
坚持别人不能坚持的,才能获得别人不能拥有的
展开
-
结构化机器学习项目(1) ——机器学习(ML)策略1
@[1. 为什么是ML策略?优化神经网络的思路: 收集更多的数据集Collect more data 收集更多样性的数据集Collect more diverse training set 使用梯度下降法再训练久一点Train algorithm longer with gradient descent 尝试使用的新的优化算法,比如说Adam算法Try algorithm longe...原创 2019-08-15 15:55:36 · 805 阅读 · 0 评论 -
改善深层神经网络(6)——利用Tensorflow搭建手势识别神经网络的详细分析
文章目录1. 初始化变量(initialize W and b)涉及到的Tensorflow语法:(1) tf.get_variable()用法(2)Tensorflow中关于矩阵初始化的一些方法2. 前向传播函数(forward_prop)涉及到的Tensorflow语法:(1)tf.matmul,tf.add(2)Tensorflow中使用激活函数3.计算损失compute cost涉及到的T...原创 2019-08-14 22:05:54 · 1025 阅读 · 0 评论 -
改善深层神经网络(5) —— 超参数调试,Batch正则化和程序框架
文章目录1. 调试处理2.为参数选择合适的范围2.12.2 从粗略到精确的选择2.3 如何使用合理的范围1. 调试处理首先,我们先列举部分我们常见的超参数:学习率α动量梯度下降因子βAdam算法的三个超参数β1,β2,εβ_1,β_2,εβ1,β2,ε2.为参数选择合适的范围2.12.2 从粗略到精确的选择2.3 如何使用合理的范围...原创 2019-08-11 16:50:55 · 355 阅读 · 0 评论 -
改善深层神经网络(4) —— 优化算法 之 动量梯度下降,RMSprop和Adam优化算法详解
文章目录1. 算法之前的预备知识1.1 指数加权平均1.2 深入理解指数加权平均1.3 指数加权平均的偏差修正2. 优化算法2.1 动量梯度下降法2.1.1 动量梯度下降法的代码实现2.2 RMSprop2.2.1RMSprop的代码实现2.3 Adam优化算法2.3.1 Adam优化算法的代码实现1. 算法之前的预备知识1.1 指数加权平均我们先通过吴恩达老师课程中的一个实例来直观理解什么...原创 2019-08-08 13:47:49 · 2401 阅读 · 7 评论 -
改善深层神经网络(3)——优化算法 之 mini-batch梯度下降法详解
文章目录1.1 mini-batch梯度下降法1.1.1 mini-batch算法的基本思路1.1.2 更好地理解mini-batch算法1.1.3使用mini-batch算法的实例在本周的学习笔记中,我将会记录一种常用的优化算法,用于加速神经网络的训练1.1 mini-batch梯度下降法1.1.1 mini-batch算法的基本思路当我们的样本数量巨大的时候,如果我们还是使用之前的梯度...原创 2019-08-06 15:42:57 · 4219 阅读 · 4 评论 -
改善深层神经网络(2)——深度学习的实用层面 之 聊聊梯度那点事儿
1.1 梯度消失与梯度爆炸我们知道,对于神经网络变量的优化是非常重要的一步,也是我们的神经网络能否正常学习的关键之一,但是,不知道大家一开始写代码的时候有没有遇到过这样的情况:第100次迭代,成本值为:nan第200次迭代,成本值为:nan第300次迭代,成本值为:nan第400次迭代,成本值为:nan第500次迭代,成本值为:nan第600次迭代,成本值为:nan第700次迭代,...原创 2019-08-05 09:05:28 · 540 阅读 · 2 评论 -
改善深层神经网络(1)——深度学习的实用层面 之 正则化超详细分析
文章目录1.1训练/开发/测试集的基本概念1.2 方差和偏差1.3机器学习基础1.4 正则化1.4.1 过拟合问题1.4.2 Logistic回归中的正则化1.4.3 如何在神经网络中使用正则化?1.4.3 为什么正则化可以减少过拟合?1.4.4 Dropout正则化1.4.4.1理解Dropout正则化1.4.5 其他正则化的方法1.4.6正则化输入1.5 聊聊梯度消失与梯度爆炸1.1训练/开...原创 2019-08-04 12:56:14 · 492 阅读 · 0 评论 -
神经网络和深度学习(2)——从理论到实现:从零开始搭建L层神经网络
说明:本次博文训练所用的数据集依然是之前的用Logistics回归识别猫文章的数据集1.导入必要的库这个就不多说啦,直接上代码:import numpy as npimport h5pyimport lr_utils2.定义激活函数我们打算在所有的隐藏层都使用Relu()函数,最后的输出层使用sigmoid()函数sigmoid函数的数学表达式,图像如下所示:f(Z)=11+...原创 2019-08-04 09:58:52 · 406 阅读 · 0 评论 -
和我一起搭建神经网络——利用Logistics回归实现猫的识别
第一步:为了完成搭建识别猫的这样一个神经网络,我们先看看程序中需要import哪些库:numpy :是用Python进行科学计算的基本软件包h5py:是与H5文件中存储的数据集进行交互的常用软件包matplotlib:是一个著名的库,用于在Python中绘制图表lr_utils :在本文的资料包里,一个加载资料包里面的数据的简单功能的库import numpy as npimpo...原创 2019-07-29 14:37:46 · 1158 阅读 · 13 评论 -
神经网络和深度学习(1)——深度神经网络的工作模式及其计算步骤的详细分析
2.1 着手计算深度神经网络2.1.1深度神经网络的前向传播计算过程我们先以下面这个三层的神经网络为例(虽然称不上真正的“深层”,但是计算方法已经和深层的差不多了),对于这个神经网络,每一个样本中都包含六个特征,有两个hidden layer,一个output layer我们先来看看一个样本的情况:$\begin{cases}...原创 2019-08-01 21:58:24 · 1444 阅读 · 0 评论