25、逻辑约束强化学习(LCRL):认证策略合成

逻辑约束强化学习(LCRL):认证策略合成

在强化学习(RL)领域,逻辑约束强化学习(LCRL)作为一种新兴的策略合成架构,为解决复杂环境下的任务提供了新的思路。本文将深入介绍LCRL的特点、工作原理、安装方法、输入输出接口以及实验评估。

LCRL的特点
  • 可扩展性 :LCRL借助线性时态逻辑(LTL)引导的探索方法,能够高效处理状态和动作空间非常大的马尔可夫决策过程(MDP)。此外,其采用的LDBA构造算法的简洁性也是实现可扩展性的一个重要因素。
  • 连续状态/动作MDP的适用性 :LCRL是首个针对连续状态/动作MDP中LTL规范的RL合成方法,填补了该领域的空白。
  • 对超参数调整的鲁棒性 :实验表明,LCRL的结果对超参数的调整不太敏感,即使超参数没有经过精细调整,也不会显著影响其性能。
LCRL的工作原理

LCRL基于MDP和LDBA(线性确定性Büchi自动机)进行工作。MDP是一个离散时间随机控制过程,定义为元组$M = (S, A, s_0, P)$,其中$S$是连续状态集合,$A$是连续动作集合,$s_0$是初始状态,$P$是条件转移核。LDBA则是根据用户定义的LTL规范生成的。

在LCRL模块内部,MDP和LDBA的状态会进行同步,生成一个动态的乘积MDP。这个乘积MDP在原MDP的状态空间基础上增加了LDBA状态的额外维度,用于跟踪各回合中读取的标签序列,从而评估相应时态属性的(部分)满足情况。更重要的是,这种同步将非马尔可夫的LTL规

基于模拟退火的计算器 在线运行 访问run.bcjh.xyz。 先展示下效果 https://pan.quark.cn/s/cc95c98c3760 参见此仓库。 使用方法(本地安装包) 前往Releases · hjenryin/BCJH-Metropolis下载最新 ,解压后输入游戏内校验码即可使用。 配置厨具 已在2.0.0弃用。 直接使用白菜菊花代码,保留高级厨具,新手池厨具可变。 更改迭代次数 如有需要,可以更改 中39行的数字来设置迭代次数。 本地编译 如果在windows平台,需要使用MSBuild编译,并将 改为ANSI编码。 如有条件,强烈建议这种本地运行(运行可加速、可多次重复)。 在 下运行 ,是游戏中的白菜菊花校验码。 编译、运行: - 在根目录新建 文件夹并 至build - - 使用 (linux)(windows) 运行。 最后在命令行就可以得到输出结果了! (注意顺序)(得到厨师-技法,表示对应新手池厨具) 注:linux下不支持多任务选择 云端编译已在2.0.0弃用。 局限性 已知的问题: - 无法得到最优解! 只能得到一个比较好的解,有助于开阔思路。 - 无法选择菜品数量(默认拉满)。 可能有一定门槛。 (这可能有助于防止这类辅助工具的滥用导致分数膨胀? )(你问我为什么不用其他语言写? python一个晚上就写好了,结果因为有涉及json读写很多类型没法推断,jit用不了,算这个太慢了,所以就用c++写了) 工作原理 采用两层模拟退火来最大化总能量。 第一层为三个厨师,其能量用第二层模拟退火来估计。 也就是说,这套方法理论上也能算厨神(只要能够在非常快的时间内,算出一个厨神面板的得分),但是加上厨神的食材限制工作量有点大……以后再说吧。 (...
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值