无代码与低代码构建机器学习模型指南
1. 使用训练好的模型生成预测
当AutoML模型训练完成后,可通过以下两种方法生成预测:
- 批量预测 :适用于不需要实时响应,且希望提交单个请求来处理多个数据实例的情况。在Vertex AI中,可直接向Vertex AI模型注册表中的模型提交批量预测请求,无需将其部署到端点。
- 在线预测 :若需要实时推理(如响应应用程序输入),则需使用Vertex AI在线预测选项。使用前,必须先将模型部署到端点,此步骤会配置基础设施资源,并使用指定模型部署预测服务机制,以实现低延迟的预测服务。
需注意,部署在Vertex AI端点上的模型会持续产生成本,无论其使用情况如何,特别是使用GPU时,成本可能会迅速增加。
2. 在Vertex AI中部署模型
以下是在Vertex AI上部署训练好的模型以实现实时预测的步骤:
1. 前往模型注册表,点击要部署的模型及其版本,在“部署与测试”选项卡中,点击“部署到端点”。
2. 输入要创建的API端点的名称,然后点击“继续”。
3. 对于快速测试部署,可保留所有默认选项不变,但需了解以下设置:
- 流量拆分 :若同一API端点上部署了多个版本的模型,此选项可让用户定义分配给特定版本的总流量百分比。例如,部署新模型时,可将2%的传入数据路由到新模型进行测试,其余98%的数据仍发送到现有版本的模型。部署模型到新端点时,此值需设为100%。
- 最小计算节点数 :这是始终可用于
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



