强化学习的trial-error模式要求agent去探索环境,然后对状态进行evaluate,在每一个状态下agent可以选择多种action,每次选择的依据可以是贪婪或者softmax等,但是得到的reward是无法表明当前的选择是正确的还是错误的,得到的只是一个score,监督学习的labels可以给agent简洁明了的correct or wrong,并且在agent 在对环境充分的探索前即在每一种状态下选择的每个action的次数不够多时,无法充分求expect,并且在action之间也无法进行对比择优。但是当监督学习的label信息有噪声干扰或者是利用一些active
learning 获得到的labels的时候,强化学习的agent与环境直接交互获取到的信息是更加可靠。
RL笔记_强化学习与监督学习的一些区别
最新推荐文章于 2025-10-11 18:25:29 发布
本文探讨了强化学习中的试错模式与监督学习的区别。在试错模式下,智能体通过与环境互动来评估状态,而监督学习提供明确的正确与否反馈。文中还讨论了当监督学习标签存在噪声时,强化学习可能更可靠。
2610

被折叠的 条评论
为什么被折叠?



