1.在modes/research目录下的终端执行下面命令:
python deeplab/export_model.py \
--logtostderr \
--checkpoint_path="/home/lw/data/cityscapes/train/model.ckpt-2000" \
--export_path="/home/lw/data/pb/frozen_inference_graph.pb" \
--model_variant="xception_65" \
--atrous_rates=6 \
--atrous_rates=12 \
--atrous_rates=18 \
--output_stride=16 \
--decoder_output_stride=4 \
--num_classes=19 \
--crop_size=1025 \
--crop_size=2049 \
--inference_scales=1.0
注意num_classes数的正确性,否则,报错。
2.将frozen_inference_graph.pb模型打包成.tar.gz格式pb
在frozen_inference_graph.pb所在目录的上一级目录pb所在处,执行打包命令
lw@lw:~/data$ tar -czf pb.tar.gz pb
3.将pb.tar.gz加载代码中进行可视化测试
tar -czf a.tar.gz a
#!--*-- coding:utf-8 --*--
# Deeplab Demo
import os
import tarfile
from matplotlib import gridspec
import matplotlib.pyplot as plt
import numpy as np
from PIL import Image
import tempfile
from six.moves import urllib
import tensorflow as tf
class DeepLabModel(object):
"""
加载 DeepLab 模型;
推断 Inference.
"""
INPUT_TENSOR_NAME = 'ImageTensor:0'
OUTPUT_TENSOR_NAME = 'SemanticPredictions:0'
INPUT_SIZE = 513
FROZEN_GRAPH_NAME = 'frozen_inference_graph'
def __init__(self, tarball_path):
"""
Creates and loads pretrained deeplab model.
"""
self.graph = tf.Graph()
graph_def = No

本文详细介绍如何在本地环境中部署并测试DeepLab语义分割模型,包括模型导出、打包、加载及可视化测试流程,为计算机视觉应用提供实战指南。
最低0.47元/天 解锁文章
6118

被折叠的 条评论
为什么被折叠?



