NeurIPS 2021
paper
Introduction
离线强化学习对于OOD数据容易出现外推误差,主流方法通过限制策略以及保守的Q价值估计予以解决,但前者受限于数据集质量的影响,后者则容易导致保守的值估计。
本文则是提高OOD数据的不确定性估计,通过Clip Q-learning进行价值函数层面的惩罚。本文首先提出SAC-N算法,发现简单的增加Q函数便可以提高算法sample- efficiency,但是过多的Q导致计算效率较低,且Q网络出现冗余,因此进一步提出了EDAC。
Method
2.1 SAC-N
文章首先回顾以往offline RL对OOD数据,为了防止Q估计过高所采取的办法,进而指出这些方法忽视了Clipped Q-learning的重要性。为了说明该观点,文章提出SAC-N,即将SAC中Q价值函数由2增加到N,
min ϕ i E s , a , s ′ ∼ D [ ( Q ϕ i ( s , a ) − ( r ( s , a ) + γ E a ′ ∼ π 0 ( s ′ ) [ min j = 1 , … , N Q ϕ j ′ ( s ′ , a ′ ) − β log π θ ( a ′ ∣ s ′ ) ] ) ) 2 ] \min_{\phi_i}\mathbb{E}_{\mathbf{s},\mathbf{a},\mathbf{s'}\sim\mathcal{D}}\left[\left(Q_{\phi_i}(\mathbf{s},\mathbf{a})-\left(r(\mathbf{s},\mathbf{a})+\gamma\mathbb{E}_{\mathbf{a'}\sim\pi_0(\mathbf{s'})}\left[\min_{j=1,\ldots,N}Q_{\phi_j^{\prime}}\left(\mathbf{s'},\mathbf{a'}\right)-\beta\log\pi_\theta\left(\mathbf{a'}\mid\mathbf{s'}\right)\right]\right)\right)^2\right] ϕiminEs,a,s′∼D[(Qϕi(s,a)−(r(s,a)+γEa′∼π0(s′)[j=1,…,NminQϕj′(s′,a′)−βlogπθ(a′∣s′)]))2]
max θ E s ∼ D , a ∼ π θ ( ⋅ ∣ s ) [ min j = 1 , … , N Q ϕ j ( s , a ) − β log π θ ( a ∣ s ) ] \max_{\theta}\mathbb{E}_{\mathbf{s}\sim\mathcal{D},\mathbf{a}\sim\pi_\theta(\cdot|\mathbf{s})}\left[\min_{j=1,\ldots,N}Q_{\phi_j}(\mathbf{s},\mathbf{a})-\beta\log\pi_\theta(\mathbf{a}\mid\mathbf{s})\right] θmaxEs∼D,a∼πθ(⋅∣s)[j=1,…,NminQϕj(s,a)−β

文章介绍了一种新的离线强化学习方法,通过SAC-N和EDAC提升对OOD数据的处理能力,利用ClippedQ-learning进行值函数调整。
最低0.47元/天 解锁文章
1033

被折叠的 条评论
为什么被折叠?



