tensorflow predictor by keras h5

1.  keras model conver from h5 to pb

from keras.models import load_model
import tensorflow as tf
import os  
from keras import backend as K
#路径参数
weight_file_path = 'model.h5' 
output_graph_name = 'model.pb'
#转换函数
def h5_to_pb(h5_model,output_dir,model_name,out_prefix = "output_",log_tensorboard = True):
    if os.path.exists(output_dir) == False:
        os.mkdir(output_dir)
    out_nodes = []
    for i in range(len(h5_model.outputs)):
        out_nodes.append(out_prefix + str(i + 1)) 
        tf.identity(h5_model.output[i],out_prefix + str(i + 1)) 
    sess = K.get_session()
    from tensorflow.python.framework import graph_util,graph_io
    init_graph = sess.graph.as_graph_def()
    main_graph = graph_util.convert_variables_to_constants(sess,init_graph,out_nodes)
    graph_io.write_graph(main_graph,output_dir,name = model_name,as_text = False)
    if log_tensorboard:
        from tensorflow.python.tools import import_pb_to_tensorboard
        import_pb_to_tensorboard.import_to_tensorboard(os.path.join(output_dir,model_name),output_dir)
#输出路径
output_dir = 'model_tf_pb'
#加载模型
h5_model = load_model(weight_file_path)
h5_to_pb(h5_model,output_dir = output_dir,model_name = output_graph_name)
print('model saved')

2. tf.contrib.predictor 

predictor.from_saved_model(model_dir, config = config, signature_def_key='predict') 

其中有一个参数tags,因此直接用h5 -> pb并没有这个tags(参考:https://blog.youkuaiyun.com/weixin_43215867/article/details/85038313)

因此需要tensorflow load pb ,然后添加tags然后再保存

def load_pb(pb_file_path, url):
    sess = tf.Session()
    with gfile.FastGFile(pb_file_path, 'rb') as f:
        graph_def = tf.GraphDef()
        graph_def.ParseFromString(f.read())
        sess.graph.as_default()
        tf.import_graph_def(graph_def, name='')

    #输入
    input = sess.graph.get_tensor_by_name('input_1:0')
    #输出
    output = sess.graph.get_tensor_by_name('dense_2/Softmax:0')

    datas = read_image(url)

    #预测结果
    ret = sess.run(output, {input:datas})
    idx = np.argmax(ret[0])
    print(labels[idx], ret)


    builder = tf.saved_model.builder.SavedModelBuilder('./model_tags')
    signature = predict_signature_def(inputs={'input':input}, outputs={'output':output})
    builder.add_meta_graph_and_variables(sess,[tf.saved_model.tag_constants.SERVING],signature_def_map={'predict': signature})
    builder.save()
    print('save meta graph to model_tags')
def estimator_predictor(model_dir, url):
    config = tf.ConfigProto(allow_soft_placement=True)
    config.gpu_options.allow_growth = True
    config.gpu_options.per_process_gpu_memory_fraction = 0.3 

    predict_fn = predictor.from_saved_model(model_dir, config = config, signature_def_key='predict') 

    datas = read_image(url)
    
    predictions = predict_fn({'input' : datas})
  
    print(predictions)

其中上面:predict_fn = predictor.from_saved_model(model_dir, config = config, signature_def_key='predict') 

这一行很关键否则会报错:expected: set() 为空

ValueError: Got unexpected keys in input_dict: {'input:0'}

expected: set()

 

根据pb文件查看网络中的变量及tensor

import tensorflow as tf
from tensorflow.python.framework import graph_util
import numpy as np


output_graph_path = "model/test.pb"
with tf.Session() as sess:
        tf.global_variables_initializer().run()
        output_graph_def = tf.GraphDef()
        with open(output_graph_path, "rb") as f:
                output_graph_def.ParseFromString(f.read())
                tf.import_graph_def(output_graph_def, name="")

        constant_values = {}
        constant_ops = [op for op in sess.graph.get_operations()] # if op.type == "Const"
        for constant_op in constant_ops:
                print constant_op.name
                #constant_values[constant_op.name] = sess.run(constant_op.outputs[0])


输出出下:
image_tensor
map/Shape
map/strided_slice/stack
map/strided_slice/stack_1
map/strided_slice/stack_2
map/strided_slice
map/TensorArray
map/TensorArrayUnstack/Shape
map/TensorArrayUnstack/strided_slice/stack
........
resnet_v2_50/logits/weights/read
resnet_v2_50/logits/biases
resnet_v2_50/logits/biases/read
resnet_v2_50/logits/Conv2D
resnet_v2_50/logits/BiasAdd
Squeeze
Softmax
score


sess = tf.Session()
with tf.gfile.FastGFile('model/model.pb', 'rb') as f:
    graph_def = tf.GraphDef()
    graph_def.ParseFromString(f.read())
    tf.import_graph_def(graph_def, name='') 
    constant_values = {}
    constant_ops = [op for op in sess.graph.get_operations()]
    for constant_op in constant_ops:
       print(constant_op.name)
       #constant_values[constant_op.name] = sess.run(constant_op.outputs[0])

tf.saved_model.simple_save(
    sess,
    "./save_model_file/",
    inputs={"image":  sess.graph.get_tensor_by_name('image_tensor:0')},
    outputs={"scores": sess.graph.get_tensor_by_name('score:0')}
)

用些方法的时候,自动添加 tf.saved_model.tag_constants.SERVING,
这样就不会报错:RuntimeError: MetaGraphDef associated with tags 'serve' could not be found in SavedModel

从中可以看到,输入tensor是image_tensor,输出是score

其它文章:

https://blog.youkuaiyun.com/weixin_43215867/article/details/85038313  解析了tags问题

SavedModelBuilder 类的对象,使用tf.saved_model.builder.SavedModelBuilder方法,该方法的参数是传入用于保存模型的目录名,目录不用预先创建。

然后 生成签名,签名是一组与图有关的输入和输出。使用predict_signature_def方法,传入的参数为输入和输出以及他们的name。

接着传入graph(图)和Variables(变量)给add_meta_graph_and_variables方法。
第一个参数传入的是Session它包含了当前graph(图)和Variables(变量)。
第二个参数是给当前需要保存的MetaGraph 一个标签,标签名可以自定义,在之后载入模型的时候,需要根据这个标签名去查找对应的MetaGraphDef,找不到就会报如 RuntimeError: MetaGraphDef associated with tags ‘foo’ could not be found in SavedModel这样的错。

标签也可以选用系统定义好的参数,
tf.saved_model.tag_constants.SERVING与
tf.saved_model.tag_constants.TRAINING等。

https://github.com/amir-abdi/keras_to_tensorflow

https://github.com/tensorflow/tensorflow/issues/35806

### Mask R-CNN 的实现代码与复现教程 以下是有关 Mask R-CNN 的实现方法以及相关资源: #### 1. 安装依赖库 为了成功运行 Mask R-CNN,通常需要安装一些必要的 Python 库。这些库包括但不限于 NumPy、TensorFlow 或 PyTorch(取决于所选框架)、OpenCV 和 COCO API。 如果遇到 COCO 数据集加载问题,可以按照以下方式克隆并编译 COCO API[^4]: ```bash git clone https://github.com/pdollar/coco.git cd coco/PythonAPI make pip install pycocotools ``` #### 2. 使用官方实现代码 Facebook AI Research 提供了一个开源版本的 Mask R-CNN 实现,基于 Caffe2 和 Detectron 框架。对于更广泛的开发者社区而言,推荐使用 Keras/TensorFlow 或 PyTorch 版本的实现。 ##### (a) TensorFlow/Keras 实现 一种流行的实现是由 Matterport 开发的 Keras/TensorFlow 版本。该版本提供了详细的文档和预训练模型支持。 - GitHub 地址: [https://github.com/matterport/Mask_RCNN](https://github.com/matterport/Mask_RCNN) 下载仓库后,可以通过以下命令安装所需依赖项: ```bash git clone https://github.com/matterport/Mask_RCNN.git cd Mask_RCNN pip install -r requirements.txt ``` 随后可运行示例脚本来验证环境配置是否正常工作。例如,执行图像推理任务: ```python import os import sys sys.path.append(os.getcwd()) from mrcnn import model as modellib, utils from samples.coco import coco # 加载预训练权重文件路径 MODEL_DIR = "./logs" COCO_MODEL_PATH = "./mask_rcnn_coco.h5" class InferenceConfig(coco.CocoConfig): GPU_COUNT = 1 IMAGES_PER_GPU = 1 config = InferenceConfig() model = modellib.MaskRCNN(mode="inference", config=config, model_dir=MODEL_DIR) model.load_weights(COCO_MODEL_PATH, by_name=True) ``` ##### (b) PyTorch 实现 另一种流行的选择是 Facebook 推出的 Detectron2,这是一个完全重写的检测工具包,支持多种目标检测算法,其中包括 Mask R-CNN。 - GitHub 地址: [https://github.com/facebookresearch/detectron2](https://github.com/facebookresearch/detectron2) Detectron2 支持动态图模式,并提供简单易用的接口来完成实例分割任务。安装过程如下所示: ```bash conda create --name detectron2 python=3.8 conda activate detectron2 pip install torch torchvision torchaudio git clone https://github.com/facebookresearch/detectron2.git cd detectron2 python setup.py develop ``` 之后可通过调用 `detectron2` 中的相关模块快速构建 Mask R-CNN 测试程序: ```python from detectron2.engine import DefaultPredictor from detectron2.config import get_cfg from detectron2.data.datasets import register_coco_instances from detectron2.utils.visualizer import Visualizer from detectron2.data import MetadataCatalog, DatasetCatalog import cv2 cfg = get_cfg() cfg.merge_from_file("./configs/COCO-InstanceSegmentation/mask_rcnn_R_50_FPN_3x.yaml") cfg.MODEL.WEIGHTS = "detectron2://COCO-InstanceSegmentation/mask_rcnn_R_50_FPN_3x/137849600/model_final_f10217.pkl" predictor = DefaultPredictor(cfg) im = cv2.imread("input.jpg") outputs = predictor(im)["instances"] v = Visualizer(im[:, :, ::-1], MetadataCatalog.get(cfg.DATASETS.TRAIN[0]), scale=1.2) out = v.draw_instance_predictions(outputs.to("cpu")) cv2.imwrite("output.png", out.get_image()[:, :, ::-1]) ``` #### 3. 关于姿态估计扩展应用 除了用于实例分割外,Mask R-CNN 还能轻松迁移到其他计算机视觉领域,比如人体姿态估计。只需稍作调整即可让网络输出多个掩码,其中每个掩码代表特定的关键点位置[^2]。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值