如果环境存在random,那么问题还能建模成MDP吗?

李宏毅老师讲解了在Atari游戏中,即使面对相同的状态,由于actor的行为具有随机性,所采取的动作可能不同。此外,即使采取相同动作,由于游戏本身的随机性,获得的奖励和下一个状态也可能不同。这引发了一个问题:在这种情况下,状态间的转移是否还具有马尔科夫性质?若不具备,则强化学习方法的应用是否会变得较为勉强?

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

李宏毅老师的课程:https://www.youtube.com/watch?v=W8XF3ME8G2I


老师说,对于同一个observation/state(atari game的画面),也不一定会采取相同的动作,因为有些actor是stochastic的,选action有一定随机性,这一点好理解。。。

老师还说,即便actor采取同一个action,得到的reward和next state也不一定一样,因为game本身存在一些randomness。这一点我很早就注意到了,那如果game本身存在randomness,以game的画面为state,state到state的之间的转移还有马尔科夫性质吗?如果没有的话,RL这些方法的应用是不是很牵强?或者说RL只是在randomness的基础上学个平均还不错的policy。



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值