
tensoflow
justgg
这个作者很懒,什么都没留下…
展开
-
tf.nn.in_to_k 理解
tf.nn.in_top_k函数 用来判断目标值 是否包含在预测值的 前 K个最大的值中,返回bool类型。 tf.nn.in_top_k( predictions, targets, k, name=None ) 参数: predictions:float32类型的Tensor.batch_size xclasses张量. targets:...原创 2019-07-01 22:15:38 · 113 阅读 · 0 评论 -
tf.truncated_normal 理解
truncated_normal( shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None ) 功能说明: 产生截断正态分布随机数,取值范围为[ mean - 2 * stddev, mean + 2 * stddev ]。 参数列表: 参数名 必选 ...原创 2019-06-30 23:25:34 · 24643 阅读 · 1 评论 -
TF-激活函数 tf.nn.relu 介绍
TF-激活函数 tf.nn.relu 介绍 tf.nn.relu(features, name = None) 这个函数的作用是计算激活函数 relu,即 max(features, 0)。即将矩阵中每行的非最大值置0。 import tensorflow as tf a = tf.constant([-1.0, 2.0]) with tf.Session() as sess: ...转载 2019-07-01 01:07:17 · 3310 阅读 · 2 评论 -
tensorflow 卷积函数,tf.conv2d理解.
函数原型: tf.nn.conv2d( input, filter, strides, padding, use_cudnn_on_gpu=True, data_format='NHWC', dilations=[1, 1, 1, 1], name=None, ) 前面的 input(原始图形4维),filter(卷积核4维...原创 2019-07-07 02:41:32 · 958 阅读 · 0 评论 -
深入理解卷积层,全连接层的作用意义
转链接:https://blog.youkuaiyun.com/m0_37407756/article/details/80904580转载 2019-08-22 22:14:55 · 446 阅读 · 0 评论 -
ReLU激活函数:简单之美
在深度神经网络中,通常使用一种叫修正线性单元(Rectified linear unit,ReLU)作为神经元的激活函数。ReLU起源于神经科学的研究:2001年,Dayan、Abott从生物学角度模拟出了脑神经元接受信号更精确的激活模型,如下图: 其中横轴是时间(ms),纵轴是神经元的放电速率(Firing Rate)。同年,Attwell等神经科学家通过研究大脑的能量消耗过程,推测神...转载 2019-08-22 22:43:50 · 356 阅读 · 0 评论