Stable Baselines/用户向导/开始

这篇博客主要介绍了Stable Baselines库的用户向导,包括如何开始使用该库进行强化学习算法的训练。作者提供了Cartpole环境下的PPO2算法应用实例,并指出大多数强化学习包遵循sklearn的接口设计。此外,还提到了如果环境和策略在Gym中已注册,可以简化模型训练流程。
部署运行你感兴趣的模型镜像

Stable Baselines官方文档中文版 Github 优快云
尝试翻译官方文档,水平有限,如有错误万望指正

大多数强化学习算法包都试图采用sklearn风格语法。

下面是一个简单的案例,展示如何在Cartpole环境中训练和运行PPO2.

import gym

from stable_baselines.common.policies import MlpPolicy
from stable_baselines.common.vec_env import DummyVecEnv
from stable_baselines import PPO2

env = gym.make('CartPole-v1')
env = DummyVecEnv([lambda: env])  # The algorithms require a vectorized environment to run

model = PPO2(MlpPolicy, env, verbose=1)
model.learn(total_timesteps=10000)

obs = env.reset()
for i in range(1000):
    action, _states = model.predict(obs)
    obs, rewards, dones, info = env.step(action)
    env.render()

或者,如果环境已在Gym注册、策略也已注册,仅仅用liner训练一个模型:

# 用一行代码定义并训练一个RL agent
from stable_baselines import PPO2
model = PPO2('MlpPolicy', 'CartPole-v1').learn(10000)

在这里插入图片描述

您可能感兴趣的与本文相关的镜像

Stable-Diffusion-3.5

Stable-Diffusion-3.5

图片生成
Stable-Diffusion

Stable Diffusion 3.5 (SD 3.5) 是由 Stability AI 推出的新一代文本到图像生成模型,相比 3.0 版本,它提升了图像质量、运行速度和硬件效率

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值