tf servering 的笔记

本文详细介绍了如何使用Docker部署TensorFlow Serving,包括两步式和一步式部署方法,以及如何通过不同端口访问服务。此外,还提供了Docker常用命令的总结,帮助读者更好地管理和操作容器。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

两步走  

docker run -it -p 8500:8500 tensorflow/serving:latest-devel
tensorflow_model_server --rest_api_port=8501 --model_name=mnist --model_base_path=/export
访问:
1.前面一步 只是映射了8500  所以8500(grpc)端口所有IP都能访问; 8501(rest)没有做映射只有dockerip能访问。
2.容器中8500是默认的 8501并不是默认开启 这两者并不是不能更改,已验证。
3.因为映射的端口都是8500,所以8500端口 所有ip都能访问,如果映射是9500:8500,那localhost 和 hostip只能访问9500
4.dockerip 只能访问docker内部的端口8500 

一步式
sudo docker run -p 9500:8500 -p:9501:8501 --mount type=bind,s
ource=/home/user/document/model_deployment/model_deployment-master/tensorflow_serving/export/,target=/models/my_model -e MODEL_NAME=mnist -t tensorflow/serving:latest-devel

 

 

docker的一些命令
查看现有的镜像  sudo docker images

查看已启动容器  sudo  docker ps

关闭已启动容器  sudo docker stop id

进入容器 sudo docker run -it -p 8500:8500 tensorflow/serving:latest-devel

开启tf servering  sudo docker cp /home/user/docker/tensorflow-mnist/mnist_tfserg_model   bafaaaa573b4:/
退出后之前镜像的保存就没有了 可以通过构建镜像
构建镜像  sudo docker commit 614122c0aabb tensorflow/models

进入构建的镜像   sudo docker run -it -p 8500:8500 tensorflow/models

查看docker信息:cat /etc/hosts

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值