文章目录
DQN (Deep Q-Network)
说明
DQN通过深度学习技术处理高维状态空间,它的核心是使用深度神经网络来近似Q值函数。传统Q-learning依赖于一个查找表(Q表)来存储每个状态-动作对的Q值,但这在高维空间中变得不可行。DQN通过训练一个神经网络来学习这个映射关系。
除了用深度网络代替 Q表之外,DQN算法还引入了一些技巧,如经验回放和目标网络。
经验回放:通过存储代理的经验(状态,动作,奖励,新状态)在回放缓存中,并在训练时从中随机抽样,这样做可以打破数据间的时间相关性,提高学习的稳定性和效率。
目标网络:DQN使用了两个网络:一个用于估计当前的Q值(在线网络),另一个用于生成目标Q值(目标网络)。这种分离有助于稳定训练过程,因为它减少了目标值随学习过程快速变化的问题。
伪代码
initialize replay memory D
initialize action-value function Q with random weights
for episode = 1, M do
initialize state s
for t = 1, T do
select action a with ε-greedy policy based on Q
execute action a, observe reward r and new state s'
store transition (s, a, r, s') in D
sample random minibatch