tf.saved_model 模块的简单使用

本文介绍如何使用tf.saved_model模块保存和加载TensorFlow模型。通过定义简单的计算图,并在会话中运行,然后保存模型到指定路径。加载模型时,创建会话并加载MetaGraphDef,解析SignatureDef获取Tensor信息。
部署运行你感兴趣的模型镜像

记录:tf.saved_model 模块的简单使用(TensorFlow 模型存储与恢复)

本文参考买白菜不用券的博文介绍,主要是tf.saved_model的使用,不太熟练,所以记录一下。

模型保存
import tensorflow as tf
from tensorflow import saved_model as sm

# 首先定义一个极其简单的计算图
X = tf.placeholder(tf.float32, shape=(3,))
scale = tf.Variable([10, 11, 12], dtype=tf.float32)
y = tf.multiply(X, scale)

# 在会话中运行
with tf.Session() as sess:
    sess.run(tf.initializers.global_variables())
    value = sess.run(y, feed_dict={X: [1., 2., 3.]})
    print(value)

    # 准备存储模型
    path = './tf_model/model_1'
    builder = sm.builder.SavedModelBuilder(path)

    # 构建需要在新会话中恢复的变量的 TensorInfo protobuf
    X_TensorInfo = sm.utils.build_tensor_info(X)
    scale_TensorInfo = sm.utils.build_tensor_info(scale)
    y_TensorInfo = sm.utils.build_tensor_info(y)

    # 构建 SignatureDef protobuf
    SignatureDef = sm.signature_def_utils.build_signature_def(
        inputs={'input_1': X_TensorInfo, 'input_2': scale_TensorInfo},
        outputs={'output': y_TensorInfo},
        method_name='what'
    )

    # 将 graph 和变量等信息写入 MetaGraphDef protobuf
    # 这里的 tags 里面的参数和 signature_def_map 字典里面的键都可以是自定义字符串,TensorFlow 为了方便使用,不在新地方将自定义的字符串忘记,可以使用预定义的这些值
    builder.add_meta_graph_and_variables(sess, tags=[sm.tag_constants.TRAINING],
                                         signature_def_map={sm.signature_constants.CLASSIFY_INPUTS: SignatureDef}
                                         )

# 将 MetaGraphDef 写入磁盘
builder.save()
模型加载
import tensorflow as tf
from tensorflow import saved_model as sm

# 需要建立一个会话对象,将模型恢复到其中
with tf.Session() as sess:
    path = './tf_model/model_1'
    MetaGraphDef = sm.loader.load(sess, tags=[sm.tag_constants.TRAINING], export_dir=path)

    # 解析得到 SignatureDef protobuf
    SignatureDef_d = MetaGraphDef.signature_def
    SignatureDef = SignatureDef_d[sm.signature_constants.CLASSIFY_INPUTS]

    # 解析得到 3 个变量对应的 TensorInfo protobuf
    X_TensorInfo = SignatureDef.inputs['input_1']
    scale_TensorInfo = SignatureDef.inputs['input_2']
    y_TensorInfo = SignatureDef.outputs['output']

    # 解析得到具体 Tensor
    # # .get_tensor_from_tensor_info() 函数中可以不传入 graph 参数,TensorFlow 自动使用默认图
    # X = sm.utils.get_tensor_from_tensor_info(X_TensorInfo, sess.graph)
    # scale = sm.utils.get_tensor_from_tensor_info(scale_TensorInfo, sess.graph)
    # y = sm.utils.get_tensor_from_tensor_info(y_TensorInfo, sess.graph)

    # 已知 X_TensorInfo, scale_TensorInfo, y_TensorInfo
    graph = tf.get_default_graph()
    X = graph.get_tensor_by_name(X_TensorInfo.name)
    scale = graph.get_tensor_by_name(scale_TensorInfo.name)
    y = graph.get_tensor_by_name(y_TensorInfo.name)
    # 因为 TensorFlow 构建 TensorInfo protobuf 时,使用了 Tensor 的 name 信息,所以可以直接读出来使用

    print(sess.run(scale))
    print(sess.run(y, feed_dict={X: [3., 2., 1.]}))

您可能感兴趣的与本文相关的镜像

TensorFlow-v2.15

TensorFlow-v2.15

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值