ROS中使用摄像头的问题

ROS中使用摄像头的问题

0.prepare

4 . 安装uvc_cam

    $ sudo apt-get install ros-indigo-uvc-camera
    $ source /opt/ros/indigo/setup.bash

采用apt-get的方式,直接装在了ROS的安装路径中,并设置工作路径。
安装成功后在/opt/ros/hydro/的路径中就会找到uvc_camera_node。

5 . 运行节点显示摄像头内容

    $ rosrun uvc_camera uvc_camera_node
    $ rosrun image_view image_view image:=/image_raw

以上测试均可用于启动usb摄像头。
 

一、前言

在ROS下常用的主要有两种驱动包:usb_cam和uvc_cam

我这里用的是usb_cam包

第一次使用首先要安装这个包,安装完了之后就可以很方便的运行摄像头节点了

二、安装usb_cam包

首次使用需要下载安装usb_cam包

这里参考博客:How to Use a Webcam in ROS with the usb_cam Package

三种方式安装:

1、可以直接用apt-get install命令

[html] view plain copy

  1. $ sudo apt-get install ros-hydro-bosch-drivers  

注意上面的hydro要替换成你的ROS版本

 

2、也可以下载usb_cam源代码自己编译

有网友提示说第二种方法不能运行,可能是因为svn上源码版本太低,编译无法生成可执行文件,所以launch文件找不到usb_cam_node节点

[html] view plain copy

  1. $ cd catkin_ws  
  2. $ svn co https://bosch-ros-pkg.svn.sourceforge.net/svnroot/bosch-ros-pkg/trunk/stacks/bosch_drivers  
  3. $ rospack profile  
  4. $ roscd usb_cam  
  5. $ rosmake --rosdep-install  

上面的catkin_ws是你创建的catkin工作空间的名字,一般会将软件包建在catkin空间中

3、还有第三种安装方式,我是用这种方法下载并编译的

[html] view plain copy

  1. $ cd catkin_ws/src  
  2. $ git clone https://github.com/bosch-ros-pkg/usb_cam.git  
  3. $ cd ..  
  4. $ catkin_make  

需要确保usb_cam安装过程中没有错误

三、运行usb_cam_node开启摄像头

打开一个新的终端,运行roscore

[html] view plain copy

  1. $ roscore  

新版本的usb_cam包在launch文件夹下有自带的launch文件,名叫usb_cam-test.launch

我们可以直接cd到这个文件夹下运行它

[html] view plain copy

  1. $ cd  
  2. $ cd catkin_ws/src/usb_cam/launch  
  3. $ roslaunch usb_cam-test.launch  

如果工作空间的usb_cam包中不带这个launch文件我们就要新建它:

打开catkin_ws/src/usb_cam/launch文件夹,在其中新建一个文件,把名字改为usb_cam-test.launch

用文本编辑器打开,写入以下代码:

[html] view plain copy

  1. <launch>  
  2.   <node name="usb_cam" pkg="usb_cam" type="usb_cam_node" output="screen" >  
  3.     <param name="video_device" value="/dev/video0" />  
  4.     <param name="image_width" value="640" />  
  5.     <param name="image_height" value="480" />  
  6.     <param name="pixel_format" value="yuyv" />  
  7.     <param name="camera_frame_id" value="usb_cam" />  
  8.     <param name="io_method" value="mmap"/>  
  9.   </node>  
  10.   <node name="image_view" pkg="image_view" type="image_view" respawn="false" output="screen">  
  11.     <remap from="image" to="/usb_cam/image_raw"/>  
  12.     <param name="autosize" value="true" />  
  13.   </node>  
  14. </launch>  

保存,并关闭这个文件。然后同样要cd到launch文件夹才能运行这个文件:

[html] view plain copy

  1. $ cd  
  2. $ cd catkin_ws/src/usb_cam/launch  
  3. $ roslaunch usb_cam-test.launch 

 

四、遇到的问题

1、报错[usb_cam-test.launch] is not a launch file name

运行完roslaunch usb_cam-test.launch后报错说usb_cam-test.launch不是一个launch文件,这是因为没有cd到catkin_ws/src/usb_cam/launch文件夹下,系统找不到这个launch文件

或者如果事先source了该工作空间,可以在任意目录下运行roslaunch usb_cam usb_cam-test.launch都行

2、对于有些节点没有跑起来的情况,可以从下载的catkin_ws/src/usb_cam中找到相应的.py文件然后用cp命令复制到opt/ros/hydro/的相应文件夹下

这篇文章:配置ROS工作空间catkin+rosbuild对于理解ROS的文件系统很有帮助

3、如果出现报错“sh: 1: v4l2-ctl: not found”则需要安装v4l2

运行:sudo apt-get install v4l-utils

 

 

 

 

 

### 调用和配置摄像头驱动及节点实现图像采集 在 ROS 中调用摄像头并实现图像采集通常涉及以下几个方面: #### 1. 驱动的选择与安装 对于 USB 摄像头,可以选择 `uvc_camera` 或者 `usb_cam` 这两个常用的驱动包。如果使用的是 RealSense 系列的 RGBD 摄像头,则可以选用 Intel 提供的官方驱动。 - **uvc_camera**: 如果需要支持 MJPEG 格式的视频流,推荐使用此驱动。它兼容大多数 UVC 标准的摄像头,并提供了灵活的参数设置选项[^2]。 - **usb_cam**: 此驱动同样适用于大部分 USB 摄像头,默认情况下也支持 MJPEG 编码格式。其优点在于易于上手且文档较为详尽[^4]。 - **RealSense Camera (realsense2_camera)**: 对于特定型号的深度摄像头(如 D435/D435i),可以直接利用英特尔提供的 ROS 包来完成初始化以及数据订阅操作[^3]。 #### 2. 创建自定义 ROS 包 为了更好地管理项目结构,在实际应用前建议先创建一个新的 ROS 工作空间及其子目录下的独立软件包用于存放相关脚本文件等资源。 以下是基于 `usb_cam` 构建的一个典型例子: ```bash cd ~/catkin_ws/src/ catkin_create_pkg my_usb_cam std_msgs roscpp cv_bridge sensor_msgs image_transport ``` 接着进入该新建立好的路径下继续完善功能模块设计工作流程图如下所示: #### 3. 修改 Launch 文件以适配具体硬件环境 每台计算机连接的不同品牌规格类型的摄像装置可能对应着不一样的 `/dev/videoX` 设备编号;因此有必要确认当前所使用的那一款确切位置后再将其写入到 XML 文档当中去以便后续自动化加载过程顺利执行下去而不会因为找不到目标源而导致失败告终的情况发生. 下面给出一段标准模板作为参考依据之一: ```xml <launch> <!-- 设置相机名称 --> <arg name="camera_name" default="my_camera"/> <!-- 加载 usb_cam 节点 --> <node pkg="usb_cam" type="usb_cam_node" name="$(arg camera_name)_node"> <param name="video_device" value="/dev/video0"/> <!-- 替换为您的设备地址 --> <param name="image_width" value="640"/> <param name="image_height" value="480"/> <param name="pixel_format" value="mjpeg"/> <!-- 发布的话题名 --> <remap from="image_raw" to="/$(arg camera_name)/image_raw"/> </node> </launch> ``` 上述代码片段展示了如何通过调整 `<param>` 参数来自由指定分辨率大小或者改变像素编码方式等内容项从而满足个性化需求场景的要求. #### 4. 订阅发布的 Topic 并展示结果 最后一步就是编写 Python/C++ 程序代码用来接收从前面提到过的主题频道上传送过来的数据帧信息进而绘制图形界面呈现给用户观看效果啦! 下面提供了一个简单的 python 版本示范案例供大家借鉴学习一下吧~ ```python import rospy from sensor_msgs.msg import Image from cv_bridge import CvBridge, CvBridgeError import cv2 def callback(data): try: bridge = CvBridge() frame = bridge.imgmsg_to_cv2(data, "bgr8") cv2.imshow("Camera Feed", frame) cv2.waitKey(1) if __name__ == '__main__': rospy.init_node('image_subscriber', anonymous=True) rospy.Subscriber("/my_camera/image_raw", Image, callback) rospy.spin() cv2.destroyAllWindows() ``` --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大江东去浪淘尽千古风流人物

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值