强化学习:Q学习与SARSA算法对比
1. 引言
在强化学习领域,Q学习和SARSA算法是两种重要的学习方法。本文将深入探讨这两种算法在Flippers游戏中的应用,分析它们的性能表现,并对强化学习的整体情况进行概述。
2. Q学习算法
Q学习算法很好地解决了两个之前讨论过的问题:
- 信用分配问题 :确保导致胜利的行动得到奖励,即使环境没有直接提供该奖励。更新规则会将成功行动的奖励从导致胜利的最后一步反向传播到第一步。
- 探索与利用困境 :通过使用epsilon-greedy或softmax策略来解决。这些策略既倾向于选择已被证明成功的行动(利用),也会偶尔尝试其他行动以探索新的可能性(探索)。
2.1 Q学习在Flippers游戏中的应用
为了测试Q学习算法在不可预测环境中学习玩Flippers游戏的能力,我们进行了一系列实验。具体操作步骤如下:
1. 设置参数 :
- 学习率α设为0.95,每次更新时每个单元格保留其旧值的5%。
- 使用epsilon-greedy策略选择行动,ε设为0.1,即算法每10次有1次机会探索新行动。
- 折扣因子γ设为0.2,考虑到每10%的行动后会有随机事件(模拟随机卡车经过翻转一个随机瓷砖),我们认为未来每次情况相同的可能性为20%。
2. 进行训练和测试 :
- 让训练好的模型进行大量随机游戏,记录游戏长度。
- 对不同训练次数下的游戏长度进行绘图分析。我们对每个可能
超级会员免费看
订阅专栏 解锁全文

1438

被折叠的 条评论
为什么被折叠?



