15、强化学习与卷积神经网络的应用与原理

强化学习与卷积神经网络的应用与原理

1. 强化学习的其他应用

强化学习的应用比我们预想的更为广泛,在我们学习监督学习和无监督学习方法时,很容易忽略它的存在。下面是谷歌在强化学习方面的成功应用案例:
- 游戏玩法
- 2015 年 2 月,谷歌开发了名为 Deep RL 的强化学习系统,用于学习玩 Atari 2600 游戏机上的街机视频游戏。与大多数强化学习解决方案不同,该算法具有高维输入,它能感知视频游戏的原始逐帧图像,这样同一算法无需大量重新编程或重新配置就能适用于任何视频游戏。
- 2016 年 1 月,谷歌发布了一篇关于能够赢得棋盘游戏围棋的 AI 智能体的论文。围棋因可能的配置数量巨大(甚至比国际象棋还多)而难以预测,但使用强化学习的该算法可以击败顶级人类围棋选手。2017 年末发布的最新版本 AlphaGo Zero,仅经过 40 天的训练,就能以 100:0 的成绩持续击败早期版本。
- 机器人与控制 :2016 年 3 月,谷歌展示了一种让机器人通过大量示例学习抓取物体的方法。谷歌使用多个机器人收集了超过 80 万次抓取尝试,并开发了一个模型来抓取任意物体。令人印象深刻的是,机器人仅借助摄像头输入就能抓取物体。学习抓取物体这一简单概念,需要聚合许多机器人经过多日的强力尝试所积累的知识,直到检测到足够的模式。显然,要让机器人能够进行泛化还有很长的路要走,但这仍是一个有趣的开端。

2. 强化学习总结
  • 强化学习是解决那些可以通过智能体采取行动改变状态以发现奖励的问题的自然工具。
  • 实现强化学习算法需要三个主要步骤:从
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值