李宏毅老师的课程:https://www.youtube.com/watch?v=W8XF3ME8G2I
老师说,对于同一个observation/state(atari game的画面),也不一定会采取相同的动作,因为有些actor是stochastic的,选action有一定随机性,这一点好理解。。。
老师还说,即便actor采取同一个action,得到的reward和next state也不一定一样,因为game本身存在一些randomness。这一点我很早就注意到了,那如果game本身存在randomness,以game的画面为state,state到state的之间的转移还有马尔科夫性质吗?如果没有的话,RL这些方法的应用是不是很牵强?或者说RL只是在randomness的基础上学个平均还不错的policy。
李宏毅老师讲解了在Atari游戏中,即使面对相同的状态,由于actor的行为具有随机性,所采取的动作可能不同。此外,即使采取相同动作,由于游戏本身的随机性,获得的奖励和下一个状态也可能不同。这引发了一个问题:在这种情况下,状态间的转移是否还具有马尔科夫性质?若不具备,则强化学习方法的应用是否会变得较为勉强?
2309

被折叠的 条评论
为什么被折叠?



