19、KFServing模型部署与基础设施安全概念解析

KFServing模型部署与基础设施安全概念解析

1. KFServing模型部署

KFServing在模型部署和管理方面发挥着重要作用,下面将详细介绍其相关操作。

1.1 金丝雀部署示例

以下是一个金丝雀部署的YAML示例:

apiVersion: "serving.kubeflow.org/v1alpha2"
kind: "InferenceService"
metadata:
  name: "my-model"
spec:
  # this is now the promoted / default model
  default: 
    predictor:
      tensorflow:
        storageUri: "gs://kfserving-samples/models/tensorflow/flowers-2"

需要注意的是,此过程仍依赖DevOps工程师手动跟踪默认、先前和当前的金丝雀模型。

1.2 自定义转换器部署

构建自定义转换器的一般步骤如下:
1. 扩展KFModel并实现预处理/后处理函数(Python)。
2. 使用扩展的KFModel代码构建Docker镜像。
3. 将新的Docker镜像部署为InferenceService。

以下是一个自定义KFServing转换器的Python示例:

import kfserving
from 
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值