tensorflow源码阅读
兴趣小黑屋
开始起航!
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
tf -- activations -- relu
整流线性单元。使用默认值,它返回按元素的max(x, 0)。否则,它遵循:如果 x >= max_value:f(x) = max_value,如果 threshold <= x < max_value:f(x) = x,否则:f(x) = alpha * (x - threshold)。参数:x:张量或变量。alpha:标量,负值部分的斜率(默认= 0.)。m...原创 2019-11-22 11:32:36 · 292 阅读 · 0 评论 -
tf -- activations -- linear
输出等与输入。。原创 2019-11-20 17:41:20 · 257 阅读 · 0 评论 -
tf -- activations -- hard_sigmoid
Hard sigmoid激活函数。计算速度比 sigmoid 激活函数更快。参数:x:输入张量。Hard sigmoid 激活:如果 x < -2.5,返回 0。如果 x > 2.5,返回 1。如果 -2.5 <= x <= 2.5,返回 0.2 * x + 0.5。...原创 2019-11-20 17:39:35 · 718 阅读 · 0 评论 -
tf -- activations --exponential
指数激活函数参数x: 输入张量.return exp(x)原创 2019-11-19 19:07:16 · 129 阅读 · 0 评论 -
tf 2.0 --activations--elu
指数线性单元参数x: 输入张量…alpha: 标量,负部分的斜率。tf.keras.activations.elu(x,alpha=1.0)x if x > 0 and alpha * (exp(x)-1) if x < 0.原创 2019-11-19 18:07:49 · 312 阅读 · 0 评论 -
tf 2.0 -- Model -- 模型
首先Model类是在training.py文件下的Model。继承了Network。Model groups layers into an object with training and inference features.意思是说Model将网络层集成为具有训练和推理功能的对象。所以Model就是将神经网络打包了,加了一个漂亮的外包装,可以让你一只手提起来的那种。。。实例化两种实例...原创 2019-11-13 17:34:09 · 1924 阅读 · 0 评论 -
tf 2.0 -- Sequential -- 网络层序列栈
这里不知道怎么形容好,直观感受就是这是一个所有网络层的栈。(请原谅我狭隘的理解,我也是初学。)栈是什么东东,按理说程序猿都知道吧,add,pop是基本操作,在这里,add与pop的对象是一个网络层而已。!!从此以后,我们只要不停的add一个Object!网络就成了? (Object指的是一层网络。。)参数Arguments:layers: list of layers to add t...原创 2019-11-12 17:35:41 · 638 阅读 · 0 评论 -
tf 2.0 -- Flatten --数据熨斗
!将数据熨平整,不影响数据的批次大小, 貌似没啥好说的,就那样。哈哈参数data_format: channels_last (default) or channels_first 。 显然channels_last表示 通道 在参数组的最后,而channels_first表示 通道 在参数组的第一位。设置在~/.keras/keras.json.中, 如果从来没有设置这个参数,就使用的是默认...原创 2019-11-12 16:32:54 · 961 阅读 · 0 评论 -
tf 2.0 -- Dense --普通全连接神经网络层
主要参数 units : 正整数,输出空间的维数; activation: 使用的激活函数。如果没有指定,则没有使用激活函数,即线性激活函数 f(x) = x; use_bias: 是否使用偏置的标志; kernel_initialize: kernel 权重初始化器; bias_initializer: bias 初始化器; kernel_regularizer: kernel的正则...原创 2019-11-12 16:02:33 · 2230 阅读 · 0 评论
分享