Iterative Regularized Policy Optimization with Imperfect Demonstrations

ICML 2024
paper
code

Intro

利用基于次优专家数据的专家策略,通过policy constraint的形式引导智能体的在线优化,同时通过利用在线高质量数据扩展专家数据,并有监督得对专家策略进行矫正。二者交替优化实现目标策略的迭代更新

Method

在这里插入图片描述
上述定理说明两个问题:1)最优策略下的 J ( π ) J(\pi) J(π)是受限于 J ( π E ) J(\pi_E) J(π

### 自适应精化方法(Self-Refine Method)及其迭代反馈改进 #### 定义与背景 自适应精化方法(Self-Refine Method)是一种通过模型自身的预测能力不断优化其输出的技术。这种方法的核心在于利用模型的当前状态作为输入的一部分,从而逐步提高精度和质量[^1]。 在论文《CRITIC: Large Language Models Can Self-Correct with Tool-Interactive Critiquing》中提到,大型语言模型可以通过工具交互式的批评机制实现自我修正功能。这种技术可以被看作一种特殊的自适应精化形式,在此过程中,模型不仅依赖外部数据集进行训练,还能够基于内部生成的结果提供进一步的调整建议。 #### 迭代反馈改进(Iterative Refinement with Self-Feedback) 迭代反馈改进是指在一个循环的过程中持续应用自反馈来提升系统的性能或准确性。具体来说: 1. **初始估计**:系统首先生成一个初步结果。 2. **误差评估**:通过对该初步结果的质量分析或者与其他标准对比找出存在的偏差。 3. **更新策略**:依据上述发现的不足之处制定相应的修改方案并重新计算新的更优解。 4. **重复执行直至收敛**:以上三个阶段会反复运行直到达到预定目标水平为止。 例如,《Super Resolution in Human Pose Estimation—Pixelated Poses to a Resolution Result》探讨了超分辨率图像处理领域内的姿态估计问题,并引入了一种类似的思路用于改善像素级人体姿势重建效果。文中描述的方法先构建低分辨率下的粗略骨架结构图谱,再经由多次精细化操作最终获得高清晰度版本的人体关节定位信息[^2]。 以下是简化版伪代码展示如何实施这一过程: ```python def iterative_refinement(input_data, model): refined_output = input_data while not converged(refined_output): # 判断是否满足停止条件 feedback_signal = compute_feedback(model, refined_output) updated_parameters = adjust_model_params(feedback_signal) new_estimation = model.predict(updated_parameters, refined_output) refined_output = combine_outputs(new_estimation, refined_output) return refined_output ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值