
神经网络
_,_
这个作者很懒,什么都没留下…
展开
-
批标准化Batch Normalization的作用、算法及优点
1. 作用神经网络在训练的时候随着网络层数的加深,激活函数的输入值的整体分布逐渐往激活函数的取值区间上下限靠近,从而导致在反向传播时浅层的神经网络的梯度消失。而batch normalization的作用是通过规范化的手段,将越来越偏的分布拉回到标准化的分布,使得激活函数的输入值落在激活函数对输入比较敏感的区域,从而使梯度变大,加快学习收敛速度,避免梯度消失的问题。2. 算法在训练时记录每一个mini-batch的均值和方差,在测试时利用训练均值和方差的无偏估计来进行BN操作。3. 优点原创 2021-03-24 10:32:54 · 3968 阅读 · 0 评论 -
Dynamic ReLU——微软提出的动态relu激活函数
论文地址:https://arxiv.org/pdf/2003.10027.pdf摘要ReLU是深度神经网络中常用的激活函数。到目前为止,ReLU及其推广(非参数或参数)都是静态的,对所有的输入样本执行相同的操作。在本文中,我们提出了Dynamic ReLU激活函数(DY-ReLU),它的参数依赖于所有输入。其关键在于DY-ReLU将全局上下文编码为超函数,并相应地调整分段线性激活函数。与...原创 2020-04-25 00:14:12 · 5494 阅读 · 4 评论 -
python 用LSTM预测时间序列之预测新冠肺炎疫情
用到的模块import numpyimport matplotlib.pyplot as pltfrom pandas import read_csvimport mathfrom keras.models import Sequentialfrom keras.layers import Densefrom keras.layers import LSTMfrom sklear...原创 2020-04-07 16:40:30 · 13069 阅读 · 37 评论 -
【CNN】理解卷积神经网络中的通道 channel
在深度学习的算法学习中,都会提到 channels 这个概念。在一般的深度学习框架的 conv2d 中,如 tensorflow 、mxnet ,channels 都是必填的一个参数。channels 该如何理解?先看一看不同框架中的解释文档。首先,是 tensorflow 中给出的,对于输入样本中 channels 的含义。一般的RGB图片,channels 数量是 3 (红、绿、蓝)...转载 2020-03-05 16:13:03 · 430 阅读 · 0 评论 -
python卷积神经网络(CNN)手写数字识别实现详解
卷积神经网络经典案例,手写数字识别代码详解,注释之处如有错误,欢迎指正from tensorflow.examples.tutorials.mnist import input_dataimport tensorflow as tf#初始化权重函数def weight_variable(shape): initial = tf.truncated_normal(shape,s...原创 2019-09-27 21:11:52 · 8231 阅读 · 3 评论 -
python MLPRegressor神经网络回归预测
'''载入数据'''from sklearn import datasetsboston = datasets.load_boston()x,y = boston.data,boston.target'''引入标准化函数'''from sklearn import preprocessingx_MinMax = preprocessing.MinMaxScaler()y_MinMa...原创 2019-10-31 16:47:35 · 33052 阅读 · 3 评论 -
常用激活函数的python画图代码
引入模块import numpy as npimport mathimport matplotlib.pyplot as plte=math.e1.sigmoiddef sigmoid(x): return 1/(1+pow(e,-x))x=np.linspace(-10,10,1000)y=sigmoid(x)plt.plot(x,y,linewidth=2)...原创 2019-12-12 21:13:43 · 1447 阅读 · 0 评论 -
常用激活函数总结与发展历程
一、什么是激活函数神经网络中的每个神经元节点接受上一层神经元的输出值作为本神经元的输入值,并将输入值加权求和后传递给下一层,在多层神经网络中,上层节点的输出和下层节点的输入之间具有一个函数关系,这个函数称为激活函数(又称激励函数)。二、激活函数的作用——为什么要使用激活函数没有激活函数,无论神经网络有多少层,输出都是输入的线性组合。激活函数给神经元引入了非线性因素,使得神经网络...原创 2019-12-12 20:35:33 · 2891 阅读 · 1 评论