机器学习模型的持续交付自动化与云管道应用
1. 模型部署与请求测试
在模型部署过程中,可使用生产级的WSGI服务器。开启调试模式后,服务会运行在 http://0.0.0.0:5000/ ,按 CTRL+C 可退出。我们可以使用 curl 程序以相同方式发送HTTP请求,示例如下:
$ curl -X POST -H "Content-Type: application/json" \
--data '["espresso is too strong"]' \
http://0.0.0.0:5000/predict
响应结果为:
{
"positive": false
}
2. 模型容器化与自动化需求
在模型容器化过程中,我们会遇到诸多问题。例如,在公共仓库中存在一些测试容器镜像,这些镜像被测试基础设施广泛使用。但当需要更新容器中使用的某个库时,却找不到创建这些测试容器的文件,因为是之前的工程师在本地构建并上传到镜像仓库的。这就凸显了自动化的重要性,我们可以创建自动化流程,根据已知的源文件(包括Dockerfile)自动构建这些容器。
在机器学习领域,同样会面临类似问题。我们习惯了手动操作,但其实有很多机会可以实现自动化。假设有人创建了一个包含模型的容器并存储在Docker Hub上,但没人知道训练好的模型是如何放入容器的,也没有相关文档,且需要
超级会员免费看
订阅专栏 解锁全文
1万+

被折叠的 条评论
为什么被折叠?



