自动化机器学习算法挖掘在分类问题中的应用
1. 引言
在机器学习中,选择合适的算法和调优超参数是提高模型性能的关键。本文将介绍一种用于算法选择和超参数调优的两阶段优化方法,旨在高效地为给定数据集选择合适的学习算法和相应的算法参数。
2. 相关技术基础
- 贝叶斯优化与TPE :贝叶斯优化技术通过使用后验分布计算潜在变量,从而采样后续步骤使用的超参数,表现优于其他最先进的全局优化方法。高斯过程(GP)常被用作贝叶斯优化中的概率模型。TPE是一种非参数密度估计方法,它能智能地探索搜索空间并缩小到估计的最佳参数。TPE通过两个分离的模型,即非参数密度 $p(x|f(x))$ 和配置先验 $p(x)$ 来建模后验 $p(f(x)|x)$。Hyperopt库是TPE的一个著名实现。
- 期望改进(EI) :是一种流行的获取函数,定义为:
$EI(x) = E[max(0, f(x) - \hat{f}(x))] = \int_{-\infty}^{\infty} max(0, f(x) - \hat{f}(x)) p(f(x)|x)$
其中 $\hat{x}$ 是当前的最优超参数集。
3. 方法介绍
3.1 确定重要超参数
- OLS方法 :普通最小二乘法(OLS)是一种常用的启发式方法,用于估计线性回归模型中的未知参数。其一般方程为:
$Y = X \cdot d + e$
其中 $Y$ 是表示因变量的向量,$d
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



