Deep Reinforcement Learning (paper reading notes)

本文介绍了一种结合深度Q网络与强化学习的方法应用于移动机器人的路径规划。通过利用深度Q网络来处理原始RGB图像作为状态输入,并输出对应的动作Q值,实现了无需人工特征提取的过程。该方法采用经验回放机制来提高学习效率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.Application of Deep Reinforcement Learning in Mobie Robot Path Planning

  1. 传统RL方法依赖于人工提取特征,本文在强化学习的基础上加入深度Q网络(a Deep Q Network)。通过深度Q网络训练状态函数,并输出每个动作相对应的Q。
  2. 深度Q网络模型:
    状态:从环境中采集的原始RGB图像。
    动作:机器人可能的移动,即前后左右。
  3. a Deep Q Network(DQN):
    融合深度学习和强化学习。
    深度学习:负责表示马尔科夫决策过程的状态。
    强化学习:负责把控学习方向。
    DQN 算法的主要做法是 Experience Replay(经验回放机制),其将系统探索环境得到的数据储存起来,然后随机采样样本更新深度神经网络的参数。
  4. Q-Learning:
    reward值矩阵R,矩阵Q,状态s(图节点),行为a(图中边)。
    随机选取状态s和行为a,使用矩阵R,更新矩阵Q。多次计算,最终得到矩阵Q,根据Q即可计算最优路径。![h](https://pic2.zhimg.com/80/e6905f69595ed51e9a406a47603d49ef_hd.jpg)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值