机器学习模型训练与内置算法实践
1. 多样本预测与端点清理
我们可以一次预测多个样本,示例代码如下:
test_samples = [
'0.00632,18.00,2.310,0,0.5380,6.5750,65.20,4.0900,1,296.0,15.30,4.98',
'0.02731,0.00,7.070,0,0.4690,6.4210,78.90,4.9671,2,242.0,17.80,9.14'
]
response = ll_predictor.predict(test_samples)
print(response)
预测输出如下:
[['30.413358688354492'],['24.884408950805664']]
当我们完成端点的使用后,不要忘记删除它以避免不必要的费用。删除端点只需调用 delete_endpoint()
API:
ll_predictor.delete_endpoint()
2. 更多内置算法实践
2.1 XGBoost 回归
我们使用 XGBoost 算法在波士顿住房数据集上训练模型,步骤如下:
1. 复用之前示例中的数据集准备步骤。
2. 找到 XGBoost 容器的名称,选择最新版本(撰写本文时为 1.3