17、Vertex AI 中的 MLOps 治理与部署

Vertex AI 中的 MLOps 治理与部署

1. Vertex AI 计算资源与扩展

Vertex AI 会分配计算节点来处理在线和批量预测。当我们将机器学习模型部署到端点时,可以自定义用于服务模型的虚拟机类型。如果需要,还能选择 GPU 或 TPU 等加速器。计算资源更多的机器配置可以以更低的延迟提供预测服务,从而同时处理更多的预测请求,但这种机器的成本会高于计算资源较低的机器。因此,根据用例和需求选择最合适的机器非常重要。

1.1 自动扩展配置

  • 在线预测 :部署用于在线预测的模型时,可以配置预测节点自动扩展。
  • 批量预测 :批量预测的预测节点不会自动扩展。默认情况下,无论是否部署带有专用 GPU 资源的模型,Vertex AI 都会自动增加或减少副本数量,以使 CPU 或 GPU 使用率(取较高者)达到默认的 60% 目标值。即便在实现每秒查询次数(QPS)和延迟目标可能不需要的情况下,Vertex AI 也会进行扩展。我们可以监控端点,跟踪 CPU 和加速器使用率、请求数量、延迟以及当前和目标副本数量等指标。

1.2 确定理想机器类型

从成本角度确定预测容器的理想机器类型时,可以将其部署到虚拟机实例,并通过发出预测请求对实例进行基准测试,直到虚拟机的 CPU 使用率达到约 90%。通过在不同机器上进行几次这样的实验,就可以根据 QPS 值确定预测服务的成本。

2. MLOps 治理概述

在快速发展的数字时代,机器学习(ML)解决方案的成功实施不仅在于创建

分布式微服务企业级系统是一个基于Spring、SpringMVC、MyBatis和Dubbo等技术的分布式敏捷开发系统架构。该系统采用微服务架构和模块化设计,提供整套公共微服务模块,包括集中权限管理(支持单点登录)、内容管理、支付中心、用户管理(支持第三方登录)、微信平台、存储系统、配置中心、日志分析、任务和通知等功能。系统支持服务治理、监控和追踪,确保高可用性和可扩展性,适用于中小型企业的J2EE企业级开发解决方案。 该系统使用Java作为主要编程语言,结合Spring框架实现依赖注入和事务管理,SpringMVC处理Web请求,MyBatis进行数据持久化操作,Dubbo实现分布式服务调用。架构模式包括微服务架构、分布式系统架构和模块化架构,设计模式应用了单例模式、工厂模式和观察者模式,以提高代码复用性和系统稳定性。 应用场景广泛,可用于企业信息化管理、电子商务平台、社交应用开发等领域,帮助开发者快速构建高效、安全的分布式系统。本资源包含完整的源码和详细论文,适合计算机科学或软件工程专业的毕业设计参考,提供实践案例和技术文档,助力学生和开发者深入理解微服务架构和分布式系统实现。 【版权说明】源码来源于网络,遵循原项目开源协议。付费内容为本人原创论文,包含技术分析和实现思路。仅供学习交流使用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值