DeepLabV3+导出.pb模型并可视化测试

本文详细介绍如何在本地环境中部署并测试DeepLab语义分割模型,包括模型导出、打包、加载及可视化测试流程,为计算机视觉应用提供实战指南。

1.在modes/research目录下的终端执行下面命令:

python deeplab/export_model.py \
    --logtostderr \
    --checkpoint_path="/home/lw/data/cityscapes/train/model.ckpt-2000" \
    --export_path="/home/lw/data/pb/frozen_inference_graph.pb"  \
    --model_variant="xception_65"  \
    --atrous_rates=6  \
    --atrous_rates=12  \
    --atrous_rates=18   \
    --output_stride=16  \
    --decoder_output_stride=4  \
    --num_classes=19 \
    --crop_size=1025 \
    --crop_size=2049  \
    --inference_scales=1.0

注意num_classes数的正确性,否则,报错。

2.将frozen_inference_graph.pb模型打包成.tar.gz格式pb

在frozen_inference_graph.pb所在目录的上一级目录pb所在处,执行打包命令

lw@lw:~/data$ tar -czf pb.tar.gz pb

3.将pb.tar.gz加载代码中进行可视化测试

tar -czf a.tar.gz a


#!--*-- coding:utf-8 --*--

# Deeplab Demo 

import os
import tarfile

from matplotlib import gridspec
import matplotlib.pyplot as plt
import numpy as np
from PIL import Image
import tempfile
from six.moves import urllib

import tensorflow as tf


class DeepLabModel(object):
    """
    加载 DeepLab 模型;
    推断 Inference.
    """
    INPUT_TENSOR_NAME = 'ImageTensor:0'
    OUTPUT_TENSOR_NAME = 'SemanticPredictions:0'
    INPUT_SIZE = 513
    FROZEN_GRAPH_NAME = 'frozen_inference_graph'

    def __init__(self, tarball_path):
        """
        Creates and loads pretrained deeplab model.
        """
        self.graph = tf.Graph()

        graph_def = No
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值