最简洁使用Tensorflow_model_server
Tensorflow_model_server的目的是:
统一管理一个模型服务器,利于让他人使用这个模型,而且可以动态更新模型,模型也会常住在内存里面,加快结果输出,减少模型加载时间。
事先准备操作:
Tensorflow_model_server 安装:
参考:https://www.tensorflow.org/serving/setup
这里会有一个坑: 直接
pip intall tensorflow-model-server的时候它会显示已经安装完,但是实际上还是没有找到这个库,处理方法是,先把原来的tensorflow-model-server给uninstall 再按安装库上面安装即可。
启动 tensorflow_model_server :
tensorflow_model_server
--port=端口号8000
--model_name=模型名称例:256
--model_base_path=绝对路径例: /notebooks/animieGan/TwinGAN/export
正常情况下:

本文介绍了如何简洁地使用Tensorflow_model_server,包括其目的、安装步骤、异常处理及客户端编写核心要点,帮助读者快速上手模型服务器的部署和调用。
最低0.47元/天 解锁文章

2455





