tensorflow
文章平均质量分 77
my_chen_smile
计算机视觉
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
TensorFlow 训练多个loss函数技巧: 训练步骤,冻结部分层(freeze some scopes),从tensorboard检查问题
这两天使用TensorFlow训练一个多个损失函数的网络模型,自己搭建网络,调参训练,由于网络是一个两阶段的网络,具有三个损失函数,其中两个损失函数监督第一个阶段,一个损失函数家督第二个阶段,而且损失函数监督的并不全是最后一层,还有中间层,这需要调整我的训练方式。训练方式先分别训练第一阶段的两个损失函数固定住第一阶段的网络的参数,只训练第二阶段网络参数调整三个loss函数的正则化参...原创 2018-10-23 16:59:10 · 9950 阅读 · 12 评论 -
tensrflow+Python TypeError问题及解决方案 (后续持续更新)
TypeError: int returned non-int (type NoneType)错误代码yl是tensorflow里的tensor数据类型if int(yl.shape.dims[1]) % 2 == 1 and int(yl.shape.dims[2]) % 2 == 1: yl = tf.pad(yl, tf.constant([[0, 0], [sz, sz + ...原创 2019-05-10 10:07:14 · 2928 阅读 · 0 评论 -
获得tensorflow模型的参数量
tensorflow模型训练好之后,通常会保存为.ckpt文件,有时我们想了解一下模型保存了多少参数,这固然可以手动计算,但是速度太慢,这里我写了一个程序可以直接获得模型的参数量,下面是源代码:转自: https://blog.youkuaiyun.com/chnguoshiwushuang/article/details/81588794from tensorflow.python import pyw...转载 2019-03-15 15:52:23 · 2278 阅读 · 0 评论 -
优化版本: tensorflow实现2D小波变化dwt和小波逆变换idwt
由于上上篇博客写了使用tensorflow实现2D小波变化dwt和小波逆变换idwt,但是实现的方法在速度上和资源占用上实在堪忧,特别是在channel比较大的情况下。因此本人对于上次的代码进行了优化。优化主要表现在两个方面:去掉原来用于调整尺寸的for循环结构,使用tf.slice等命令代替;去掉原来的循环卷积结构,使用tensorflow3D卷积代替分析上述的两种操作之所以能够节...原创 2019-01-02 16:37:50 · 3529 阅读 · 7 评论 -
tensorflow实现2D小波变化dwt和小波逆变换idwt,梯度可以反向传播
使用tensorflow实现小波变化和小波逆变换,并且梯度可以反向传播。因此可以方便的将小波变化嵌入到网络结构中去。本代码参考pytorch实现的小波变化移植至tensorflow。pytorch实现链接:https://github.com/fbcotter/pytorch_wavelets。实现中存在的一个的问题是tensorflow不能实现分组卷积,因此这里只能采用循环一个2D卷积来实现...原创 2018-12-09 21:58:55 · 4557 阅读 · 7 评论 -
tensorflow+Python ValueError以及解决方法(后续继续更新)
使用python 怎么可能没有ValueError,下面罗列我见到的几种错误,虽然很低级,但是不试过还是很难找到错误的ValueError: Incompatible type conversion requested to type ‘float32’ for variable of type ‘int32_ref’使用tensorflow时,出现在卷积层,原因在于初始化卷积权重或者偏置时,...原创 2018-12-07 21:59:06 · 12970 阅读 · 7 评论 -
1. tf.nn.conv2d_transpose解决output_shape问题,解决需要固定输出尺寸的问题
tensorflow 使用反卷积的时候有两种方式,一种使用tf.layerstf.layers.conv2d_transpose(inputs, filters, kernel_size, strides=(1, 1), padding='valid', data_format='channels_last', activation=None, use_bias=True, kernel_in...原创 2018-12-07 21:39:56 · 2367 阅读 · 0 评论 -
Batch Normalization理论基础以及tensorflow实现
Batch Normalization 理论Batch Normalization 相当于归一化输出的feature map。理论基础首先在Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift 文中提出,用于消除深度学习中臭名昭著的梯度消失和梯度爆炸的问题。bat...原创 2018-11-11 20:04:18 · 338 阅读 · 0 评论 -
TRAINABLE_VARIABLES和UPDATE_OPS的差别
搜索自stack overflowThese are two different things.TRAINABLE_VARIABLESTRAINABLE_VARIABLES is the collection of variables or training parameters which should be modified wh...转载 2018-10-23 17:38:16 · 439 阅读 · 0 评论 -
详解 TensorFlow 训练多个loss函数技巧: 训练步骤,冻结部分层
由于以前写的关于冻结层的博客不够详细,给很多读者造成困惑。为补充关于冻结层,训练多个loss的博客,遂给出更详细的过程。原创 2019-05-29 18:04:25 · 10527 阅读 · 15 评论
分享