PPO系列1 - 强化学习、策略梯度的原理

强化学习基本概念

Agent根据上一步Environment给出的State和Reward,以及自己的内在策略,做出Action;

Action给到Environment,Environment给出State和Reward,给到Agent去做下一步Action;

该游戏中,State就是游戏画面,Reward就是吃的分、通关等奖励(或者被打死等惩罚),Action就是超级玛丽下一步的<上、下、左、右、静止>动作。Agent是超级玛丽。Environment是游戏机。

目标:学习到一个最优的策略,通过该策略下走的Action序列,拿到尽可能多的Reward总和

每一步的Action,要做长远考虑,不能只看这一步的Reward,而要尽量使今后的长远Reward之和,也就是Return,最大化。

数学期望(概率加权平均):

强化学习的目标:(2种说法)

数学表达式:

\theta:学习到的策略(模型)

\tau:在该策略下采样得到的轨迹Trajectory

R(\tau ): 该轨迹的Return(Reward之和)

P_{\theta }(\tau ): 在该策略下采样得到该轨迹的概率

策略梯度的推导:

要最大化E,就要求出\theta的梯度,沿着梯度方向对\theta进行更新,可使E最大化。

去掉梯度求导,得到:

即对上式进行最大化。

直观含义:

当R(即Return)>0时,让每个状态s下生成这个action a的概率尽量增大。

当R(即Return)<0时,让每个状态s下生成这个action a的概率尽量减小。

超级玛丽的例子:

定义loss函数:(就是把最大化上式改成最小化下式)

游戏画面是s,作为神经网络的输入;超级玛丽的动作是a,作为神经网络的分类输出;

使用上面的神经网络,玩N次游戏,即采样得到N条轨迹,每条轨迹对应一个Return R:

对每条轨迹,有了R,就可以计算每一步的梯度了;所有轨迹的所有步的梯度,累加起来,更新模型:

On Policy:采集数据的模型,和训练的策略模型,是同一个模型。

python+opencv简谱识别音频生成系统源码含GUI界面+详细运行教程+数据 一、项目简介 提取简谱中的音乐信息,依据识别到的信息生成midi文件。 Extract music information from musical scores and generate a midi file according to it. 二、项目运行环境 python=3.11.1 第三方库依赖 opencv-python=4.7.0.68 numpy=1.24.1 可以使用命令 pip install -r requirements.txt 来安装所需的第三方库。 三、项目运行步骤 3.1 命令行运行 运行main.py。 输入简谱路径:支持图片或文件夹,相对路径或绝对路径都可以。 输入简谱主音:它通常在第一页的左上角“1=”之后。 输入简谱速度:即每分钟拍数,同在左上角。 选择是否输出程序中间提示信息:请输入Y或N(不区分大小写,下同)。 选择匹配精度:请输入L或M或H,对应低/中/高精度,一般而言输入L即可。 选择使用的线程数:一般与CPU核数相同即可。虽然python的线程不是真正的多线程,但仍能起到加速作用。 估算字符上下间距:这与简谱中符号的密集程度有关,一般来说纵向符号越稀疏,这个值需要设置得越大,范围通常在1.0-2.5。 二值化算法:使用全局阈值则跳过该选项即可,或者也可输入OTSU、采用大津二值化算法。 设置全局阈值:如果上面选择全局阈值则需要手动设置全局阈值,对于.\test.txt中所提样例,使用全局阈值并在后面设置为160即可。 手动调整中间结果:若输入Y/y,则在识别简谱后会暂停代码,并生成一份txt文件,在其中展示识别结果,此时用户可以通过修改这份txt文件来更正识别结果。 如果选择文件夹的话,还可以选择所选文件夹中不需要识别的文件以排除干扰
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值