强化学习笔记一(周博磊)

文章探讨了强化学习的特点,如试错探索、延迟奖励和时间序列数据的影响。深度强化学习(DRL)通过结合深度学习,解决了高维状态的问题,实现特征提取和决策的端到端建模。Value-basedDRL利用强化学习生成标签,而Policy-basedDRL则像是带有Reward调整的常规分类问题升级版。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

课程链接
github
知乎
推荐书籍

1.强化学习的问题

Trial-and-error exploration
Delayed reward
Time matters (sequential data, non i.i.d data)
Agent’s actions affect the subsequent data it receives (agent’s action changes the environment)

2.深度强化学习

在deep learning之前,传统CV往往是先提取特征,再训练分类器。RL遇到高维状态也是这样。有了DRL,可以构造一个端到端的模型,同时完成特征提取和“分类”。看了一些value based paper,感觉这类DRL更像是利用强化学习来构造标签,利用神经网络来学习。而policy based DRL更像是在普通分类问题上加了一个Reward作为更新步长的refine。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值