
Tensorflow
dupei
这个作者很懒,什么都没留下…
展开
-
如何在TF2中使用TF1.x的.pb模型
在TF1.x中,使用冻结的.pb模型方法比较简单,可以参看:https://editor.youkuaiyun.com/md/?articleId=103403309随着TF2的推进,以后,用TF2的也会越来越多。但是,有时候还是会需要在TF2中使用到TF1.x的模型。对于.pb模型的使用,该如何做呢?直接上codedef wrap_frozen_graph(graph_def, inputs, outputs, print_graph=False): def _imports_graph_def():原创 2020-09-17 20:22:36 · 2342 阅读 · 0 评论 -
Tensorflow中的模型保存与加载
Tensorflow中,模型的保存与加载有多种方法。TF1.x保存和加载ckpt格式的模型一般在训练模型的过程中,需要保存模型和权重,常见的方式是保存为ckpt格式的文件,具体的函数如下:tf.train.Saver().save(sess,ckpt_file_path,max_to_keep=4,keep_checkpoint_every_n_hours=2) 再使用类似下面的cod...原创 2019-12-11 11:40:57 · 1245 阅读 · 0 评论 -
使用mmdnn将MXNET转成Tensorflow模型
参考:https://www.twblogs.net/a/5ca4cadbbd9eee5b1a0713af写这篇笔记的初衷是因为需要将Insightface的MXNET模型转成Tensorflow,而mmdnn上提供的mmconvert命令却没有成功(估计是哪里用错了),故而找其他的文章来实现相同的功能。准备mmdnn环境因为需要将mxnet转成tensorflow,所以,需要在python...原创 2019-12-10 10:50:38 · 919 阅读 · 2 评论 -
Tensorflow中查看训练好的模型网络结构和变量名称
在复用已训练好的模型时,进行需要查看模型网络结构和对应的变量名称,可以使用下面的方法查看。# after load model from file...# print out operations informationops = tf.get_default_graph().get_operations()for op in ops: print(op.name) # prin...原创 2019-12-05 13:58:32 · 3510 阅读 · 0 评论 -
Tensorflow中的GPU分配方法
Tensorflow中的GPU分配方法默认情况下 TensorFlow 会使用其所能够使用的所有 GPU,这样,会出现浪费的情况。列出当前设备上的GPU和CPU首先,通过 tf.config.experimental.list_physical_devices,我们可以获得当前主机上某种特定运算设备类型(如 GPU 或 CPU )的列表,例如,在一台具有 4 块 GPU 和一个 CPU 的工...转载 2019-12-03 16:34:59 · 6557 阅读 · 1 评论