深度学习笔记——“Mastering the game of Go with deep neural networks and tree search”论文学习

本文介绍了一种新的计算方法,通过深度神经网络和树搜索在围棋游戏上取得重大突破。利用价值网络评估棋局,策略网络选择走法,结合蒙特卡罗树搜索,AlphaGo在围棋对弈中达到99.8%胜率,首胜人类职业选手。

深度学习笔记——“Mastering the game of Go with deep neural networks and tree search”论文学习

题目

“通过深度神经网络和树搜索征服围棋游戏”,英文原文链接点击这里

摘要

围棋游戏一直被视为人工智能经典游戏中最具挑战性的游戏,因为它具有巨大的搜索空间和评估棋盘盘面和移动的难度。在这里,我们介绍一种新的计算方法,它使用“价值网络”(value networks)来评估棋盘盘面,并使用“策略网络”(policy networks)来选择走法。这些深度神经网络采用了一种新颖的方法进行训练,即将有监督学习(从人类职业比赛中学习)和强化学习(从自我对抗的比赛中学习)相结合。在没有使用任何前瞻性搜索的情况下,这些神经网络的水平已经相当于最先进的使用蒙特卡罗树搜索(MCTS:Monte Carlo tree search)的程序,这些程序模拟了成千上万的随机的自我对抗盘局。我们还引入了一种新的搜索算法,将蒙特卡罗模拟与价值和政策网络相结合。使用这种搜索算法后,我们的程序AlphaGo在和其它围棋程序的对弈中达到了99.8%的胜率,并且以5比0击败了欧洲围棋冠军。这是计算机程序首次在全尺寸的围棋对抗中击败人类职业围棋选手,这是一项以前被认为至少需要十年才能完成的壮举。

  • 笔记:需要掌握的有:“价值网络”(value networks)、“政策网络”(policy networks)、蒙特卡罗树搜索(MCTS:Monte Carlo tree search)、将蒙特卡罗模拟与价值和政策网络相结合的搜索算法

引言

所有完美信息博弈(ga

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值