
MetaRL_Notes
文章平均质量分 62
Ctrl+Alt+L
Reinforcement learning about meta, robot and safty.
展开
-
【论文笔记】Skill-based Meta Reinforcement Learning
虽然深度强化学习方法在机器人学习中表现出色,但它们的样本效率使得在真实机器人系统中学习复杂、长期的行为变得不可行。为了缓解这个问题,元强化学习方法旨在通过学习如何学习,使得在新任务上能够快速学习。目前元强化学习限制在短期行为、密集奖励函数的任务上。为了使学习长期行为变得可能,最近的研究探索了利用以离线数据集形式存在的先验知识,这些数据集没有奖励信息或任务注释。制作这样的离线数据集需要大量的实践交互。原创 2023-07-05 18:40:07 · 1457 阅读 · 0 评论 -
元强化学习 PEARL 项目解读
元强化学习 PEARL 项目解读原创 2023-03-22 23:08:23 · 1897 阅读 · 0 评论 -
Dynamic Movement Primitives (DMP) 学习
整理于沙漏大佬的知乎博文,适合入门了解~~原创 2023-03-06 11:30:45 · 2011 阅读 · 0 评论 -
【论文笔记】 元强化学习综述解读 (arXiv: 2301.08028)
本文详细描述了元强化学习问题的设置及其主要算法的变种。本文的分类方式:任务分布的表现形式、对每个任务能够学习到的内容。最后,作者为使元强化学习成为深度强化实践者的实用工具的发展方向上,提出了若干问题。原创 2023-02-04 18:42:00 · 6000 阅读 · 1 评论 -
MAML-RL Pytorch 代码解读 (17) -- maml_rl/metalearner.py
MAML RL 源代码解读 17原创 2023-01-27 21:58:19 · 512 阅读 · 0 评论 -
MAML-RL Pytorch 代码解读 (16) -- maml_rl/metalearner.py
MAML RL 源代码解读 16原创 2023-01-27 21:57:41 · 806 阅读 · 0 评论 -
MAML-RL Pytorch 代码解读 (15) -- maml_rl/episode.py
MAML RL 源代码解读 15原创 2023-01-27 21:56:32 · 584 阅读 · 0 评论 -
MAML-RL Pytorch 代码解读 (14) -- maml_rl/baseline.py
MAML RL 源代码解读 14原创 2023-01-27 21:56:06 · 606 阅读 · 8 评论 -
MAML-RL Pytorch 代码解读 (13) -- maml_rl/envs/mujoco/half_cheetah.py
MAML RL 源代码解读 13原创 2023-01-15 15:56:53 · 508 阅读 · 1 评论 -
MAML-RL Pytorch 代码解读 (12) -- maml_rl/envs/mujoco/ant.py
MAML RL 源代码解读 12原创 2023-01-15 15:56:14 · 581 阅读 · 0 评论 -
MAML-RL Pytorch 代码解读 (11) -- maml_rl/utils/optimization.py、reinforcement_learning.py和torch_utils.py
MAML RL 源代码解读 11原创 2023-01-15 15:55:39 · 514 阅读 · 0 评论 -
MAML-RL Pytorch 代码解读 (10) -- maml_rl/envs/subproc_vec_env.py
MAML RL 源代码解读 10原创 2023-01-15 15:55:02 · 558 阅读 · 0 评论 -
MAML-RL Pytorch 代码解读 (9) -- maml_rl/envs/normalized_env.py
MAML RL 源代码解读 9原创 2023-01-15 15:50:19 · 420 阅读 · 0 评论 -
MAML-RL Pytorch 代码解读 (8) -- maml_rl/envs/navigation.py
MAML RL 源代码解读 8原创 2023-01-15 15:49:48 · 315 阅读 · 0 评论 -
MAML-RL Pytorch 代码解读 (7) -- maml_rl/envs/mdp.py
MAML RL 源代码解读 7原创 2023-01-15 15:30:57 · 424 阅读 · 0 评论 -
MAML-RL Pytorch 代码解读 (6) -- maml_rl/envs/bandit.py
MAML RL 源代码解读 6原创 2023-01-15 15:30:31 · 838 阅读 · 2 评论 -
MAML-RL Pytorch 代码解读 (5) -- maml_rl/envs/init.py和utils.py
MAML RL 源代码解读 5原创 2023-01-15 15:29:57 · 613 阅读 · 0 评论 -
MAML-RL Pytorch 代码解读 (4) -- maml_rl/policies/categorical_mlp.py
MAML RL 源代码解读 4原创 2023-01-15 15:28:36 · 276 阅读 · 0 评论 -
MAML-RL Pytorch 代码解读 (3) -- maml_rl/policies/normal_mlp.py
MAML RL 源代码解读 3原创 2023-01-13 21:07:57 · 360 阅读 · 0 评论 -
MAML-RL Pytorch 代码解读 (2) -- maml_rl/policies/policy.py
MAML RL 源代码解读 2原创 2023-01-13 21:07:01 · 465 阅读 · 0 评论 -
MAML-RL Pytorch 代码解读 (1) – main.py
MAML-RL 源代码解读 1原创 2023-01-13 21:05:16 · 1396 阅读 · 0 评论 -
【论文笔记】Meta-Learning for Fast Adaptive Locomotion with Uncertainties in Environments and Robot
该工作开发了元学习控制策略,以实现对不同变化条件的快速在线适应,从而产生多样化和鲁棒的运动。原创 2023-01-07 10:39:29 · 352 阅读 · 0 评论 -
【论文笔记】Effective Policy Adjustment via Meta-Learning for Complex Manipulation Tasks
本文提出的方法是将元强化学习的MAML算法与HER事后经验回放算法结合。HER算法提升智能体在稀疏奖励环境下的探索能力MAML元学习算法能够在新任务下通过快速调整参数,提升其在利用环境下能力HER + MAML 方法可以加速新任务下策略的微调(神经网络组成的策略梯度RL);提升了成功率原创 2022-12-06 12:55:00 · 187 阅读 · 1 评论 -
【论文笔记】 Exploration With Task Information for Meta Reinforcement Learning
基于上下文的元RL通过应用一个原则性的框架来提升数据的有效性,将训练过程分解成任务推断和任务执行。这种方法下任务信息不能被足够地利用,导致了不充分的探索。为了解决这个问题,我们提出了一个新的基于上下文的元RL框架,它具有改进的探索机制。针对现有的基于上下文的元RL中的探索和执行问题,我们提出了一个新的目标,即分别使用两个探索“术语”来鼓励在动作(空间)和任务嵌入空间中进行更好的探索。第一项推动提高任务推理的多样性;而第二项被称为动作信息,在不同的探索阶段起着共享或隐藏任务信息。原创 2023-01-04 15:37:40 · 657 阅读 · 4 评论