
Tensorflow小Tips
JYZhang_sh
本人自己多加加油~
上海高校机器学习研究僧小菜鸟一枚~
交流可发邮件1459416934@qq.com
展开
-
BatchNorm 在 U-Net 中的实战作用 —— 踩过的坑
BatchNorm 在 U-Net 中的实战作用 —— 踩过的坑BatchNorm 简介BatchNorm 代码实现 (pytorch)实际在 U-Net 中有无 BatchNorm 的影响BatchNorm 简介BatchNormalization 作为神经网络训练的大杀器,广泛的应用于各类网络的训练中。其好处在于:收敛过程大大加快,从而提升训练速度;提升网络性能,这点可以理解成类似于 Dropout 的防止过拟合的正则化方式;简化调参过程,对参数初始化要求没有那么高,可以使用大的学习率;原创 2020-07-01 18:50:55 · 3777 阅读 · 3 评论 -
Tensorflow小Tips(一):关于tf.contrib.metrics.streaming_true_positives
本文介绍的内容适用于 tf.contrib.metrics.streaming_true_positives 以及类似的 streaming_XXX 的 metrics。调用格式import tensorflow as tfa = tf.Variable([0,1,1,0], tf.bool)b = tf.Variable([0,1,0,1], tf.bool)tp, tp_...原创 2018-09-13 20:48:21 · 1594 阅读 · 0 评论 -
Tensorflow小Tips(二):如何给tensor赋值 —— tf.assign函数
其实tensorflow里面如何改变tensor的值一直是很令人苦恼的事儿,不过我最近发现 tf.assign 函数可以对 tensor 进行整体的赋值。调用方式import tensorflow as tfw = tf.Variable(initial_value=[[1,1], [1,1]], dtype = tf.float32)update = tf.assign(...原创 2018-09-13 21:23:14 · 18090 阅读 · 6 评论 -
Tensorflow.slim 库中 batch_normalization 的问题及其替代方法
Batch Normalization 的公式y=γx−μσ+ϵ+βy = \gamma \frac{x-\mu}{\sigma + \epsilon}+\betay=γσ+ϵx−μ+β参数:xxx 是输入数据,yyy 是 batch normalization 的结果,γ\gammaγ 和 β\betaβ 是可学习的参数确保数据被过度正则化为均值 0 方差 1 的数据,而 μ\muμ ...原创 2019-09-29 20:20:30 · 1239 阅读 · 0 评论 -
Python小Tips (三):items()的妙用
问题描述显示字典中所有键对的值,并将其一行一行的打印出来。显示类中所有属性的值,并将其一行一行的打印出来。这个两个问题有助于 debug 的时候清晰的显示封装变量中的属性,提高代码的纠错和可读性。---------------------------------------------------------------------------------------------解决...原创 2019-09-30 21:46:46 · 1335 阅读 · 0 评论