强化学习经典算法笔记(十一):近端策略优化算法(PPO)实现,基于A2C
PPO算法是一种On-policy算法,可以被用于连续空间任务和离散空间任务。在OpenAI发表的PPO原始论文中,关于新旧策略的相似程度,有两种处理办法,一个是Penalty,一个是Clip。
Penalty是将新旧策略的KL散度作为一个罚项加入到目标函数中,避免了TRPO中的那种硬性约束。Clip是将新旧策略做比值,将这一比值限制在一定范围,如[0.8,1.2][0.8,1.2][0.8,1.2]。论文实验和实际使用经验都表明PPO-Clip是较优选择。

下面是离散动作空间的PPO算法实现,基于A2C算法。
import torch
import torch.nn as nn
from torch.distributions import Categorical
import gym
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
class Memory:
def __init__(self):
self.actions = []
self.states = []
self.logprobs = []
self.rewards = []
self.is_terminals = []
def clear_memory(self):
del self.actions[:]
del self.states[:]
del self.logprobs[:]
del self.rewards[:]
del self.is_terminals[:]
class ActorCritic(nn.Module):
def __init__(self, state_dim, action_dim, n_latent_var):
super(ActorCritic, self).__init__()
# actor
self.action_layer = nn.Sequential(
nn.Linear(state_dim, n_latent_var),
nn.Tanh(),
nn.Linear(n_latent_var, n_latent_var),
nn.Tanh(),
nn.Linear(n_latent_var, action_dim),
nn.Softmax(dim=-1)
)
# critic
self.value_layer = nn.Sequential(
nn.Linear(state_dim, n_latent_var),
nn.Tanh(),
nn.Linear(n_latent_var, n_latent_var),
nn.Tanh(),
nn.Linear(n_latent_var, 1)
)
def forward(self):
raise NotImplementedError
def act

本文详细介绍并实现了近端策略优化算法(PPO),一种强大的On-policy强化学习算法,适用于连续和离散动作空间。通过对比Penalty和Clip两种策略,文章展示了PPO-Clip的优越性,并提供了基于A2C的PPO算法实现代码,包括Actor-Critic网络结构、记忆模块、更新策略等关键部分。
最低0.47元/天 解锁文章
1万+

被折叠的 条评论
为什么被折叠?



