TensorFlow Serving 使用 及 部署

TensorFlow Serving

一、Quick Start

0x00 变量

服务部署及调用时需要用到的变量有:

变量名 适用流程 说明
$MODEL_PATH 部署 本地模型目录
$MODEL_NAME 部署、调用 模型名称,部署时指定;调用时根据模型名进行调用
$MODEL_VERSION

0x01 使用docker安装TensorFlow Serving

docker pull tensorflow/serving

0x02 准备模型,并按版本布置目录

将包含saved_model.pb , assets , variables 的模型目录以数字版本号命名,服务会自动调用目录内版本号最高的模型文件,模型目录示例如下:

e.g.

# 此时模型目录 $MODEL_PATH = "/Users/eric/work/wheel/tmp/tensorflow_serving/fm_models"

➜ tree /Users/eric/work/wheel/tmp/tensorflow_serving/fm_models
/Users/eric/work/wheel/tmp/tensorflow_serving/fm_models
├── 001
│   ├── assets
│   ├── saved_model.pb
│   └── variables
│       ├── variables.data-00000-of-00001
│       └── variables.index
└── 002
    ├── assets
    ├── saved_model.pb
    └── variables
        ├── variables.data-00000-of-00001
        └── variables.index

6 directories, 6 files

0x03 以docker run的方式简单部署TensorFlow Serving

运行方式模板为:


docker run -p 8501:8501 \
  --mount type=bind,\
source=$MODEL_PATH,\
target=/models/$MODEL_NAME \
  -e MODEL_NAME=$MODEL_NAME -t tensorflow/serving &

按照上述部署,可以得到$MODEL_PATH = "/Users/eric/work/wheel/tmp/tensorflow_serving/fm_models" ;

同时令 $MODEL_NAME="fm_model",可以得到完整运行指令:

docker run -p 8501:8501 \
  --mount type=bind,\
source=/Users/eric/work/wheel/tmp/tensorflow_serving/fm_models,\
target=/models/fm_model \
  -e MODEL_NAME=fm_model -t tensorflow/serving &

0x04 curl简单调用

调用 :

# /v1/models/<model name>/versions/<version number>


curl -d '{"instances": [[1.0, 0.0, 22.0, 48.0, 1.0, 5.0, 1.0, 0.0, 1.0, 2.0, 2.0, 9.0, 9.0, 9.0, 9.0, 9.0, 4.0, 6.0, 6.0, 5.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值