20、机器学习模型调优与服务的设计模式

机器学习模型调优与服务的设计模式

1. 超参数调优

1.1 超参数调优的原理

超参数调优可看作一个外部优化循环,内部循环是典型的模型训练。对于更复杂的模型,可使用 hp.Choice() 参数尝试不同类型的层,如 BasicLSTMCell BasicRNNCell 。虽然网格搜索和随机搜索比试错法更高效,但对于训练时间长或超参数搜索空间大的模型,成本会迅速增加。

1.2 非线性优化

需要调整的超参数分为两类:与模型架构相关的和与模型训练相关的。模型架构超参数(如层数、每层神经元数量)控制机器学习模型的数学函数;模型训练相关的超参数(如训练轮数、学习率、批量大小)控制训练循环,通常与梯度下降优化器的工作方式有关。总体而言,模型函数相对于这些超参数通常是不可微的。

内部训练循环是可微的,可通过随机梯度下降进行最优参数搜索。但超参数调优问题中的单次试验需要在训练数据集上训练完整模型,可能需要数小时,因此需用适用于不可微问题的非线性优化方法来解决。选择非线性优化方法后,评估指标的选择更广泛,可基于业务目标选择,如最大化预期收入或最小化欺诈损失。

1.3 贝叶斯优化

贝叶斯优化是一种优化黑盒函数的技术,最初由 Jonas Mockus 在 20 世纪 70 年代开发,2012 年首次应用于超参数调优。在超参数调优中,机器学习模型是黑盒函数,训练模型的过程称为调用目标函数。

贝叶斯优化的目标是尽量减少直接训练模型的次数,因为训练成本高。它定义了一个替代函数来模拟模型,该函数输入为超参数值

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值