Tersonflow Serving原理

TensorFlow Serving是Google为机器学习模型生产环境部署提供的高性能服务系统,支持模型版本控制、多模型服务、REST API等。其核心概念是Servable,由Loader、Source、AspiredVersions和Manager管理。当Source发现新模型版本,会通知Manager进行加载,Manager根据版本策略决定加载哪些模型。在部署时,需要先导出模型为SavedModel格式,再启动服务。TensorFlow Serving简化了模型迭代和部署流程。

Tersonflow Serving原理

前言

​当我们将模型训练完毕后,往往需要将模型在生产环境中部署。最常见的方式,是在服务器上提供一个 API,即客户机向服务器的某个 API 发送特定格式的请求,服务器收到请求数据后通过模型进行计算,并返回结果。如果仅仅是做一个 Demo,不考虑高并发和性能问题,其实配合 Flask 等 Python 下的 Web 框架就能非常轻松地实现服务器 API。
不过,如果是在真的实际生产环境中部署,这样的方式就显得力不从心了。这时,TensorFlow 为我们提供了 TensorFlow Serving 这一组件,能够帮助我们在实际生产环境中灵活且高性能地部署机器学习模型。

Tensorflow Serving 是google为机器学习模型生产环境部署设计的高性能的服务系统。具有以下特性:

  • 支持模型版本控制和回滚
  • 支持多模型服务,比如用最新版本/所有版本/指定版本
  • 支持 gRPC/ REST API 调用
  • 支持批处理batching
  • 支持模型的热更新

Tersonflow Serving实现原理

首先我们需要花一些时间来了解TF Serving如何处理ML模型的整个生命周期。在这里,我们将介绍TF服务的主要构建块。
TF Serving服务由一些抽象组成,这些抽象类用于不同任务的API,其中最重要的是Servable,Loader,Source,Aspired Versions和Manager。
让我们来看看他们之间是如何互动的:

TensorFlow Serving架构,图片来源于TensorFlow Serving官方文档</

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值