9、机器学习模型训练与内置算法实践

机器学习模型训练与内置算法实践

1. 多样本预测与端点清理

我们可以一次预测多个样本,示例代码如下:

test_samples = [
'0.00632,18.00,2.310,0,0.5380,6.5750,65.20,4.0900,1,296.0,15.30,4.98',
'0.02731,0.00,7.070,0,0.4690,6.4210,78.90,4.9671,2,242.0,17.80,9.14'
]
response = ll_predictor.predict(test_samples)
print(response)

预测输出如下:

[['30.413358688354492'],['24.884408950805664']]

当我们完成端点的使用后,不要忘记删除它以避免不必要的费用。删除端点只需调用 delete_endpoint() API:

ll_predictor.delete_endpoint()

2. 更多内置算法实践

2.1 XGBoost 回归

我们使用 XGBoost 算法在波士顿住房数据集上训练模型,步骤如下:
1. 复用之前示例中的数据集准备步骤。
2. 找到 XGBoost 容器的名称,选择最新版本(撰写本文时为 1.3

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值