如题。
前提:
1.要保证传感器节点正常运行,即发布到主题/scan(或者是laserscan)数据是ok的,可以通过rostopic echo /scan 查看是否有数据生成
2.通常使用的设备为kobuki+kinect(或者3d其他的设备)时,运行turtlebot_navigation中gmapping的例子就可以实现kobuki动态避障功能
3.运行例子后,运行命令
roslaunch turtlebot_rviz_launchers view_navigation.launch
查看运行的例子中各项数据是否会出现问题。要保证这里面显示的数据无warning或者error,如果有,请自行用wtf或rqt工具排查tf和topic数据,基本上如果出问题就是tf/坐标系的问题。
a.有可能是哪个father node运行不正常导致相应坐标系无transform数据,导致son node因为收不到数据而超时;
b.或者是tf分成两段,没有连接上;
4.ros中避障功能在move_base中实现,主要由costmap_2d组件实现,详细方式可见:ros中的costmap
问题:
终于到我所遇到的问题,使用新的地盘,适配odom tf和odom topic后基本就可以正常运行了,当然没有红外,悬崖,陀螺仪,碰撞传感器。只使用电机编码

在尝试使用新的机器人平台与 Hokuyo 激光雷达运行 GMAPPING 示例时,发现无法实现动态避障。问题在于 costmap_2d 的参数配置,特别是 `min_obstacle_height` 和 `max_obstacle_height`。由于参数设置基于 kobuki 与 kinect 结合的配置(0.25-0.35),不适用于 Hokuyo 激光雷达的平面扫描,导致障碍物未被正确识别。解决方案是根据传感器特性和机器人高度调整这两个参数。
最低0.47元/天 解锁文章
3363

被折叠的 条评论
为什么被折叠?



