- 博客(8)
- 收藏
- 关注
原创 DRL-robot-navigation 论文阅读及结果复现
论文实现了一种完全自主的探索系统,用于在无需人工控制或环境先验信息的情况下导航至全局目标。从机器人的紧邻区域提取兴趣点,对其进行评估,并选择其中一个作为路径点。路径点引导基于深度强化学习的运动策略朝向全局目标,从而减轻局部最优解问题。然后基于该策略执行运动,而无需对周围环境进行完全映射。1.设计了用于目标驱动探索的全局导航和路径点选择策略2.开发了基于TD3架构的移动机器人导航神经网络。
2025-03-18 14:40:19
1161
2
原创 基于注意力交互图的意图感知机器人人群导航(代码复现)——Intention Aware Robot Crowd Navigation with Attention-Based Interaction
环境:ubuntu20.04、anaconda3、python3.8。2.在文件夹下打开终端,创建工作环境。安装OpenAI Baseline。安装pytorch 1.12.1。安装Python-RVO2依赖。1.下载论文代码原文件。安装python依赖包。
2025-03-11 17:16:55
344
原创 路径规划学习笔记——DRL-VO 复现
3)我们在多个模拟的 3D 环境中验证了导航性能,并证明所提出的控制策略在避障和速度之间实现了更好的权衡,并且比最先进的方法(包括基于模型的控制器、基于监督学习的方法以及两种基于 DRL 的方法)对不同的人群规模和新的未知环境具有更好的泛化性。与基于监督学习的方法相比,基于 DRL 的方法更常用于动态环境中的导航。基于这些趋势,我们也将利用预处理后的传感器数据,即激光雷达数据的短时间历史记录和行人的当前运动学数据,我们之前的研究表明,在监督学习环境中,这些数据能够提高导航安全性。
2025-03-06 20:14:14
1303
原创 稠密行人场景下的自主移动机器人轨迹规划
基于学习的运动规划方法试图模仿行人的 相互避让行为来重现合适的机器人运动策略,例如基于强化学习的方法通常在稠密行人模拟器中训练来学习稠密行人场景下的运动规划模型。基于优化的方法在每个规划周期的工作由行人移动轨迹预测和机器人轨迹规划两个连续步骤组成,首先利用行人移动模型预测附近行人的运动,然后通过优化来规划合适的机器人轨迹。但是,基于优化的方法在稠密行人场景中的一个常见问题是走投无路问题。现有的关于稠密行人场景下移动机器人运动规划的方法可以分为三大类: 基于反应式的方法、基于学习的方法的和基于优化的方法。
2025-03-05 21:09:42
215
原创 路径规划实操笔记——基于Ubuntu20.04的turtlebot3-wallfe-pi实操
远程PC(remote PC)turtlebot3Ubuntu18.04、ROS—Melodic、以事先完成小车拼搭并且完成了内部系统的初始化操作。
2025-03-05 09:41:36
382
原创 路径规划笔记——强化学习
环境是指存在于代理之外的一切元素。它既是代理动作产生作者的地方,又能生成奖励和观测量。(这里与控制系统不同的是,在控制系统人们普遍将环境视为影响控制系统的干扰)奖励是一个函数,会生成一个标量,代表处于某个特定状态并采取特定动作的代理的“优先度”既然您已了解环境以及它在提供状态和奖励方面的角色,现在可以开始探讨代理本身了。代理由策略和学习算法组成。策略是将观测量映射到动作的函数,学习算法是用来查找最优策略的优化法。如何表示策略在最基本的级别,策略是以状态观测为输入、以动作为输出的函数。
2025-03-04 16:36:28
828
原创 路径规划学习笔记——综述类
自动驾驶系统分成六个阶段。第一个阶段是传感器阶段,它负责获取环境信息。第二个阶段是感知阶段,负责目标追踪、目标检测和车道检测任务。第三阶段是定位和映射阶段,然后是评估阶段。第五阶段是规划和决策阶段。最后阶段是硬件控制其中包括动作控制,如转向角度。ADS系统从硬件传感器层开始。传感器是ADS系统中与环境互动的主要因素。周围的信息,包括静态和动态物体,被收集起来输入到下一个感知层。感知阶段的主要目的是处理从传感器收集到的数据,并提取在以下阶段对ADS有用的信息。第三个阶段是定位和映射层。
2025-03-04 11:08:20
263
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人