复杂环境决策中的强化学习
1. 引言
强化学习在复杂环境决策中具有重要作用。在复杂环境里,智能体需要与环境进行交互,通过不断尝试和学习来找到最优策略,从而实现特定的目标。本文将聚焦于使用Q学习算法训练深度Q网络(DQN)模型的相关内容。
2. DQN模型训练
DQN模型训练是基于Q学习算法展开的,但相较于标准的Q学习方法,深度Q学习需要进行一些修改。
- 选择动作方法的修改 :在之前的Q学习代码中,智能体的 choose_action() 方法只是简单地访问存储在字典中的动作值。而现在,这个函数需要改为执行神经网络(NN)模型的前向传播,以计算动作值。
- 经验回放机制
- 问题提出 :在使用标准的表格法进行Q学习时,可以在不影响其他状态 - 动作对值的情况下更新特定状态 - 动作对的值。但在使用NN模型近似q(s, a)时,更新某个状态 - 动作对的权重可能会影响其他状态的输出。并且,在训练NN时,通常假设训练样本是独立同分布(IID)的,但从智能体的一个情节中获取的样本显然构成了一个转移序列,并非IID。
- 解决方案 :当智能体与环境交互并生成转移五元组时,将大量(但有限)的此类转移存储在一个内存缓冲区中,通常称为经验回放内存。每次新的交互后,将产生的新转移五元组添加到内存中。为了限制内存大小,会移除最旧的转移。然后,从内存缓冲区中随机选择一个小批量的样本,用于计算损失并更新网络参数。
- 实现方式 :经
超级会员免费看
订阅专栏 解锁全文
3452

被折叠的 条评论
为什么被折叠?



