MLlib模型部署与Spark在非MLlib模型中的应用
1. 实验输出与项目运行
代码运行会产生如下输出:
{'r2': 0.22794251914574226, 'rmse': 211.5096898777315}
此代码已作为MLflow项目托管在GitHub仓库中,你可以使用不同的 max_depth 和 num_trees 超参数值来运行实验。MLflow项目中的YAML文件指定了库依赖,因此该代码可以在其他环境中运行:
# In Python
mlflow.run(
"https://github.com/databricks/LearningSparkV2/#mlflow-project-example",
parameters={"max_depth": 5, "num_trees": 100})
或者在命令行中运行:
mlflow run https://github.com/databricks/LearningSparkV2/#mlflow-project-example -P max_depth=5 -P num_trees=100
2. MLlib模型部署选项
不同组织和用例对机器学习模型的部署有不同的需求。业务约束会对延迟、吞吐量、成本等方面提
超级会员免费看
订阅专栏 解锁全文
714

被折叠的 条评论
为什么被折叠?



