带事后校正的分支学习:解决约束中含未知参数的预测优化问题
1 引言
约束优化问题在日常生活和工业应用中无处不在。在实际情况里,这类问题往往包含一些在求解时未知的参数,需要依据历史记录进行预测。例如,火车公司要在满足乘客需求的前提下安排最少数量的列车,但精确的乘客需求事先是未知的,必须进行预测。传统上,在预测阶段,机器学习模型使用与优化问题无关的误差指标(如均方误差)进行训练,然而这种误差指标未必能反映最终解决方案的性能。
预测优化(Predict + Optimize)采用更有效的后悔函数来训练预测模型,该函数能捕捉估计最优解和真实最优解在使用真实参数评估时的目标差异。不过,后悔函数是分段常数且不可微的,因此基于梯度的方法并不适用。此前的相关工作大致可分为近似方法和精确方法:
- 近似方法 :计算后悔函数(近似值)的(近似)梯度,处理的并非后悔损失本身,而是其近似值,虽有创新性,但并非总是可靠。
- 精确方法 :直接使用后悔函数来寻找良好的预测模型,通过利用优化问题的结构在不计算梯度的情况下训练模型,可应用于动态规划可解问题和递归可解问题。
大多数先前关于预测优化的工作仅处理目标中存在未知参数的问题。当约束中也包含未知参数时,一个主要挑战是估计的解决方案在真实参数下可能不可行。Hu等人提出了一种更通用的损失函数——事后后悔(post - hoc regret),它先将不可行的估计解校正为可行解,然后预测误差为真实最优解与可行解的目标差异加上校正可能产生的惩罚。
本文的贡献主要有三点:
1. 提出了首个针对目标和约束中均含未知参数的预测优化精确方法,该方法是
超级会员免费看
订阅专栏 解锁全文
539

被折叠的 条评论
为什么被折叠?



