强化学习--Pytorch--DQN扩展以及Policy Gradient网络结构

DQN改进

DQN算法存在过估计问题,可以采用Double DQN方法来进行补偿。两种方法只在下图不同,其他地方一致。下图公式为 q_target 的输出值,
DQN:
在这里插入图片描述
Double DQN:
在这里插入图片描述

Policy Gradient

Policy gradient是基于策略的强化学习,该方法是存储每一轮的s,a,r值,用以计算梯度。
在这里插入图片描述
这里面, π θ \pi_{\theta} πθ表示选择对应动作的概率,后面的 v t v_{t} vt表示对应的时刻 t t t r r r加上未来衰减的 r r r。一个基于policy gradient的pytorch程序如下:

import torch
import gym
import torch.nn as nn
import torch.nn
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值