强化学习——Policy-based Approach

本文记录了作者学习李宏毅老师强化学习课程的心得,重点介绍了Policy-based Approach的三大步骤:神经网络作为Actor、 goodness of function及选择最佳函数。通过神经网络优化策略以获取更高奖励,涉及关键元素S(状态)、A(行动)、R(奖励)。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

强化学习——Policy-based Approach


根据李宏毅老师的视频,记录一下自己的学习心得


前言

本科已经毕业了,从刚开始接触传统的机器学习,到后面接触到深度学习、CV检测、NLP等,但是最近看到越来越多的人开始提到强化学习,因此自己也打算乘着这段“闲暇”时间来学习一下强化学习,仅仅用于记录自己的学习,如果能为您提供帮助当然再好不过。

Policy-base approach思想

主要分为三步:
1、Nerual network as Actor;
2、goodness of function;
3、pick the best function
主要元素有S:观察环境获得的状态;A:针对当下环境采取的行动;R:基于当下环境和采取的行动,得到的奖励。
通过神经网络来计算针对当下环境采取的action,神经网络参数为θ。为了获得更高的reward(reward由外界的环境来决定)来优化神经网络的参数θ,主要笔记如下。

笔记

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

总结

甘愿为理想“头破血流”

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值