七月算法强化学习 第四课 学习笔记

本文从Q值函数出发,介绍SARSA与Q-Learning两种算法,并探讨了在复杂环境中如何利用值函数逼近来应对大规模状态空间的问题。进一步讨论了Deep Q-Learning中经验回放的应用及其优势,并展示了DQN在Atari游戏上的应用案例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Deep Q-Network

1.复习Q值函数


SARSA


2.Q-Learning 



如果(s,a)状态太多太复杂怎么办?(围棋、Atari游戏,星际争霸)

拟合值函数Q(s,a)

几种值函数逼近(Value Function Approximation)


值函数

Linear Combination of Features 
Neural Network 
Decision Tree 
Nearest Neighbor 

以及任何其他的函数都可能用来拟合值函数

Q-Network


Gradient Descent


3.Deep Q-Learning 


Experience Replay


Experience Replay优点:训练数据利用率高,随机才养出来的Experience直接相关性小,可降低训练的Variance

DQN玩Atari


Double DQN


Duelling network模型



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值