利用内置框架扩展机器学习服务
在机器学习领域,利用内置框架可以高效地扩展服务。本文将介绍如何使用不同的框架进行模型训练和部署,包括 TensorFlow、Keras、PyTorch 以及 Hugging Face。
1. 本地模式与托管基础设施
本地模式下,我们可以快速迭代模型,但受限于本地机器的计算和存储能力。当需要大规模训练和生产部署时,可以使用托管基础设施。以下是使用托管基础设施的步骤:
1. 确保输入数据存储在 S3 中。
2. 将实例类型从“local”替换为实际的实例类型。
示例代码如下:
import sagemaker
sess = sagemaker.Session()
bucket = sess.default_bucket()
prefix = 'sklearn-boston-housing'
training_path = sess.upload_data(path='housing.csv',
key_prefix=prefix + "/training")
output_path = 's3://{}/{}/output/'.format(bucket,prefix)
sk = SKLearn(. . ., instance_type='ml.m5.large')
sk.fit({'training':training_path})
. . .
sk_predictor = sk.deploy(initial_instance_count=1,