AWS上的MLOps实践指南
在AWS上开展MLOps工作时,我们可以从思考一个问题入手:当面对一个机器学习问题,且存在预测准确性、可解释性和操作性这三个约束条件时,为了取得成功,你会优先关注哪两个条件,以及按照怎样的顺序去关注呢?
许多专注于学术研究的数据科学家往往会立刻选择预测准确性。构建更出色的预测模型就像玩俄罗斯方块一样,是一项有趣的挑战。而且,建模工作充满魅力,是这份工作中令人向往的部分。数据科学家们喜欢展示他们如何运用日益复杂的技术来训练出高精度的学术模型。例如,整个Kaggle平台都致力于提高预测准确性,并且为精确的模型提供金钱奖励。
然而,另一种方法是专注于模型的可操作性。这种方法的优势在于,随着软件系统的改进,模型的准确性也可以随之提高。就像日本汽车工业专注于持续改进(Kaizen)一样,机器学习系统可以先关注合理的初始预测准确性,然后迅速进行改进。AWS的文化通过“行动偏好”和“交付成果”的领导原则支持这一理念。“行动偏好”意味着优先考虑速度和交付成果,关注业务的关键输入,并迅速交付结果。因此,AWS围绕机器学习的产品,如AWS SageMaker,体现了这种注重行动和结果的文化精神。
持续交付(CD)是MLOps的核心组成部分。在实现机器学习的自动化交付之前,微服务本身需要实现自动化。具体的操作会根据所涉及的AWS服务类型而有所不同。下面我们来看一个端到端的示例。
在这个示例中,一个Elastic Beanstalk Flask应用程序使用从AWS Code Build到AWS Elastic Beanstalk的所有AWS技术进行持续部署。这个“堆栈”也非常适合部署机器学习模型。Elastic Beanstalk是AWS提供的一种平台即服务
AWS MLOps实践指南
超级会员免费看
订阅专栏 解锁全文
1000

被折叠的 条评论
为什么被折叠?



