知乎号:李歪理,欢迎大家关注
本篇系统的介绍在强化学习领域如何有效的进行探索,给出了几类探索算法,通过引入后悔值,借助多臂赌博机这一与状态无关的示例从理论上论述了相关算法的有效性,随后很简单地介绍了将其扩展至与状态相关学习问题和这些算法如何具体应用于解决MDP问题。
1. 简介 Introduction
探索和利用的困局:
- 利用是做出当前信息下的最佳决定,
- 探索则是尝试不同的行为继而收集更多的信息。最好的长期战略通常包含一些牺牲短期利益举措。通过搜集更多或者说足够多的信息使得个体能够达到宏观上的最佳策略。
因此探索和利用是一对矛盾。
几个基本的探索方法:
朴素探索(Naive Exploration): 在贪婪搜索的基础上增加一个Ɛ以实现朴素探索;
几个基本的探索方法:
朴素探索(Naive Exploration): 在贪婪搜索的基础上增加一个Ɛ以实现朴素探索;
乐观初始估计(Optimistic Initialization): 优先选择当前被认为是最高价值的行为,除非新信息的获取推翻了该行为具有最高价值这一认知;
概率匹配(Probability Matching): 根据当前估计的概率分布采样行为;
信息状态搜索(Information State Search): 将已探索的信息作为状态的一部分联合个体的状态组成新的状态,以新
订阅专栏 解锁全文
1175

被折叠的 条评论
为什么被折叠?



