今天我们来实现 RGB相机的控制程序,用来控制彩色相机的曝光、灵敏度、白平衡、亮度/色度降噪、 设备端裁剪、相机触发器等。
目录
Setup 1: 创建文件
- 创建新建2-rgb-camera-control文件夹
- 用vscode打开该文件夹
- 新建一个main.py 文件
Setup 2: 安装依赖
安装依赖前需要先创建和激活虚拟环境,我这里已经创建了虚拟环境OAKenv,在终端中输入cd…退回到OAKenv的根目录,输入 OAKenv\Scripts\activate
激活虚拟环境
安装pip依赖项:
pip install numpy opencv-python depthai blobconverter --user
Setup 3: 导入需要的包
在main.py中导入项目需要的包
import depthai as dai
import cv2
from itertools import cycle
from itertools import cycle
导入了cycle
函数,这是Python中itertools
模块中的一个函数。cycle
函数用于创建一个无限迭代器,可以循环遍历特定的序列。
Setup 4: 全局变量
# 设置 size('W','A','S','D' controls)
STEP_SIZE = 8
# 手动曝光/聚焦/白平衡设置步骤
EXP_STEP = 500 #us
ISO_STEP = 50
LENS_STEP = 3
WB_STEP = 200
-
STEP_SIZE = 8
定义步长为8。这表示在进行控制时,每次变化的单位大小为8。 -
EXP_STEP = 500
定义手动曝光的步长为500微秒(us)。这表示在手动调整曝光时,每次增加或减小的曝光时间的单位大小为500微秒。 -
ISO_STEP = 50
定义ISO值的步长为50。这表示在手动调整ISO值时,每次增加或减小的单位大小为50。 -
LENS_STEP = 3
定义镜头聚焦的步长为3。这表示在手动调整镜头聚焦时,每次增加或减小的单位大小为3。 -
WB_STEP = 200
定义白平衡的步长为200。这表示在手动调整白平衡时,每次增加或减小的单位大小为200。
Setup 5: 定义clamp函数
def clamp(num,v0,v1):
return max(v0,min(num,v1))
这个clamp
函数用于将输入的值限制在指定的范围内。
num
是要进行限制的值。v0
是允许的最小值。v1
是允许的最大值。
函数的作用是检查给定的值num
是否在范围[v0, v1]内。如果它小于最小值v0
,则返回v0
作为结果;如果它大于最大值v1
,则返回v1
作为结果;否则,返回num
本身。
这个函数可以用于确保某个值在指定的范围内。例如,如果希望将变量x
限制在0和100之间,可以使用x = clamp(x, 0, 100)
来确保x
的值不会小于0或大于100。
Setup 6: 创建pipeline
pipeline = dai.Pipeline()
Setup 7: 创建节点
camRgb = pipeline.create(dai.node.ColorCamera)
camRgb.setResolution(dai.ColorCameraProperties.SensorResolution.THE_1080_P)
camRgb.setIspScale(2,3) # 1080p --> 720p
stillEncoder = pipeline.create(dai.node.VideoEncoder)
这里创建了两个节点,并为其中的ColorCamera
节点进行了一些配置。
通过pipeline.create()
函数创建了一个名为camRgb
的ColorCamera
节点。
使用camRgb.setResolution()
方法设置了相机的分辨率为1080p,即1920x1080像素。
使用camRgb.setIspScale()
方法将图像缩小,将1080p的分辨率缩放为720p的分辨率。这里指定的缩放因子为2和3,表示将水平和垂直方向的分辨率都缩小为原来的2/3。因此,从1080p缩放到720p会使图像的宽度缩小为原来的2/3,高度缩小为原来的2/3。
使用pipeline.create()
函数创建了一个名为stillEncoder
的VideoEncoder
节点。
这段代码的主要目的是创建相机节点并对其进行初始化和配置,以便后续在管道中使用这些节点。
controlIn = pipeline.create(dai.node.XLinkIn)
configIn = pipeline.create(dai.node.XLinkIn)
ispOut = pipeline.create(dai.node.XLinkOut)
videoOut = pipeline.create(dai.node.XLinkOut)
stillMjpegOut = pipeline.create(dai.node.XLinkOut)
这段代码创建了四个节点,并为每个节点分配了一个名称。
使用pipeline.create()
函数创建了一个名为controlIn
的XLinkIn
节点。该节点用于接收控制信息。
使用pipeline.create()
函数创建了一个名为configIn
的XLinkIn
节点。该节点用于接收配置信息。
使用pipeline.create()
函数创建了一个名为ispOut
的xLinkOut
节点。该节点用于输出ISP(图像信号处理)处理后的图像。
使用pipeline.create()
函数创建了一个名为videoOut
的xLinkOut
节点。该节点用于输出视频流。
使用pipeline.create()
函数创建了一个名为stillMjpegOut
的xLinkOut
节点。该节点用于输出静态图像的MJPEG格式。
这些节点的主要作用是在管道中实现不同的数据传输和输出功能。
Setup 8: 设置节点流名称
controlIn.setStreamName("control")
configIn.setStreamName("config")
ispOut.setStreamName("isp")
videoOut.setStreamName("video")
stillMjpegOut.setStreamName("still")
使用controlIn.setStreamName()
方法为之前创建的XLinkIn
和xLinkOut
节点设置了流名称。
通过为每个节点设置流名称,可以在管道中准确地分配和传输相应的数据流。这样可以更方便地管理和处理不同类型的数据。
Setup 9: 设置视频大小
camRgb.setVideoSize(640,360)
stillEncoder.setDefaultProfilePreset(1,dai.VideoEncoderProperties.Profile.MJPEG)
这段代码设置了camRgb
节点的视频大小和stillEncoder
节点的默认配置。
camRgb.setVideoSize(640, 360)
方法设置了camRgb
节点的视频大小为640x360像素。这表示输出的视频流将以该分辨率进行传输和显示。
stillEncoder.setDefaultProfilePreset(1, dai.VideoEn