OpenCV-2.RGB Normalized

本文介绍了一种通过RGB归一化处理消除图片中光照影响的方法。通过对原图的RGB通道进行分离并计算归一化值,可以有效减少光照变化带来的视觉偏差。文中提供了一个具体的实现代码示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

     RGB Normalized可以帮助我们消除由于光照或者阴影导致的图片扭曲。

     如果你对一张图片使用该技能,那么,就会将原本图片中的lighting information 将会lose。

     所谓Normalized就是这样:

     S = R + G + B.

     R/S,

     G/S,

     B/S.

     下面是详细代码:

     

#include "opencv2/imgproc/imgproc.hpp"
#include "opencv2/highgui/highgui.hpp"
#include "cv.h"

IplImage* NormalizeImage(IplImage* theImage)
{
	//创建三个单通道图片用来保存原图各通道值
	IplImage* redchannel = cvCreateImage(cvGetSize(theImage),8,1);
	IplImage* greenchannel = cvCreateImage(cvGetSize(theImage),8,1);
	IplImage* bluechannel = cvCreateImage(cvGetSize(theImage),8,1);
	//创建三个单通道图片,用来保存之后normalized的各个通道value
	IplImage* redavg = cvCreateImage(cvGetSize(theImage),8,1);
	IplImage* greenavg = cvCreateImage(cvGetSize(theImage),8,1);
	IplImage* blueavg = cvCreateImage(cvGetSize(theImage),8,1);
	//创建一个三通道图片,来保存最终Normalized后的图片
	IplImage* imgavg = cvCreateImage(cvGetSize(theImage),8,3);
	//将原图片进行通道分离操作,这样便得到BGR(注意不是RGB顺序)各通道信息,由于原图少于4个通道,所以最后一个参数为NULL
	cvSplit(theImage,bluechannel,greenchannel,redchannel,NULL);
	//for循环中修改像素值
	for (int x = 0; x < theImage->width; x++)
	{
		for (int y = 0; y < theImage->height; y++)
		{
			//get r,g,b像素值
			int redValue = cvGetReal2D(redchannel,y,x);
			int greenValue = cvGetReal2D(greenchannel,y,x);
			int blueValue = cvGetReal2D(bluechannel,y,x);
			//求和
			double sum = redValue + greenValue + blueValue;
			//set new rgb value
			cvSetReal2D(redavg,y,x,redValue / sum * 255);
			cvSetReal2D(greenavg,y,x,greenValue / sum * 255);
			cvSetReal2D(blueavg,y,x,blueValue / sum * 255);
		}
		
	}//end loop
	//将新的三个通道合并为一个图像中
	cvMerge(blueavg,greenavg,redavg,NULL,imgavg);
	//释放资源
	cvReleaseImage(&redchannel);
	cvReleaseImage(&greenchannel);
	cvReleaseImage(&bluechannel);
	cvReleaseImage(&redavg);
	cvReleaseImage(&greenavg);
	cvReleaseImage(&blueavg);
	//
	return imgavg;
}

int main()
{
	IplImage* img = cvLoadImage("3.jpg");
	IplImage* imgTemp;
	imgTemp = NormalizeImage(img);
	cvNamedWindow("Image");
	//display
	while(1)
	{					
		cvShowImage("Image",imgTemp);	
		cvShowImage("Image2",img);		 
		char keyPress = cvWaitKey(10);
		if (keyPress == 27)//退出
		{
			break;
		}
	}		
	cvReleaseImage(&img);
	return 0;
}
运行效果图:



如图,Normalized之后,完全感受不到 lighting information了 :)

<think>好的,我现在需要回答用户关于如何使用OpenCV-Python处理或获取深度相机的深度信息的问题。首先,用户已经提供了两个引用,但看起来引用内容主要涉及OpenCV的基础知识,可能没有直接提到深度信息处理。不过,我需要结合自己的知识来回答这个问题,并确保正确引用提供的资料。 首先,我应该明确深度相机的工作原理。常见的深度相机如Intel RealSense或微软Kinect,它们通过结构光、飞行时间(ToF)或立体视觉来获取深度信息。不同的硬件可能需要不同的处理方式,但OpenCV通常提供通用的方法来处理这些数据。 接下来,用户想用OpenCV-Python获取深度信息。我需要考虑以下几点: 1. **硬件选择与SDK集成**:比如,Intel RealSense有自己的Python SDK(pyrealsense2),而OpenCV可能需要结合这些SDK来读取深度数据。或者,如果使用普通立体摄像头,可能需要通过OpenCV的立体匹配算法来计算深度。 2. **读取深度数据**:如果相机支持直接输出深度图,可能需要通过OpenCV的VideoCapture来获取帧,并解析深度通道。不过,有些相机的深度数据可能需要特定的SDK才能正确读取,比如RealSense的深度流。 3. **处理深度数据**:一旦获取了深度图,可以使用OpenCV的函数进行处理,比如滤波、归一化、可视化等。例如,应用高斯模糊减少噪声,或者将深度值转换为伪彩色图像以便观察。 4. **立体视觉方法**:如果没有深度相机,可能需要使用立体匹配算法,如BM或SGBM,通过左右视图计算视差图,进而得到深度信息。这部分需要校准摄像头,获取校正参数,然后进行视差计算。 现在需要检查用户提供的引用是否有相关内容。引用[2]提到“单个像素的信息可以从图像中提取,方法与Python中引用数组的单个元素相同”,这可能涉及访问图像的像素数据,包括深度图的每个像素值。因此,可以引用这一点来说明如何操作深度数据。 需要确保回答的结构清晰,分步骤说明不同的方法,并提到可能的硬件和SDK依赖。同时,生成相关问题,如深度相机的选择、处理深度数据的技巧,以及立体视觉的应用等。 最后,要确保所有数学公式和代码块符合格式要求,行内公式用$...$,独立公式用$$...$$,代码块用三个反引号包裹,并正确添加引用标识。</think>要使用OpenCV-Python处理或获取深度相机的深度信息,需根据硬件类型选择合适的方法。以下是具体步骤: ### 1. **硬件选择与数据获取** - **专用深度相机(如Intel RealSense)** 需安装对应SDK(如`pyrealsense2`),通过SDK直接获取深度帧。示例代码: ```python import cv2 import pyrealsense2 as rs pipeline = rs.pipeline() config = rs.config() config.enable_stream(rs.stream.depth, 640, 480, rs.format.z16, 30) pipeline.start(config) while True: frames = pipeline.wait_for_frames() depth_frame = frames.get_depth_frame() depth_image = np.asanyarray(depth_frame.get_data()) cv2.imshow("Depth", cv2.applyColorMap(cv2.convertScaleAbs(depth_image, alpha=0.03), cv2.COLORMAP_JET)) if cv2.waitKey(1) == ord('q'): break pipeline.stop() ``` - **普通RGB-D摄像头** 部分设备支持通过`cv2.VideoCapture`直接读取深度数据,需检查摄像头协议。 ### 2. **深度数据处理** - **像素值解析** 深度图中每个像素值表示距离(单位通常为毫米)。可通过索引直接访问: ```python depth_value = depth_image[y, x] # 例如:depth_image[240, 320]表示图像中心点的深度值[^2] ``` - **滤波与增强** 使用OpenCV函数优化深度图质量: ```python blurred = cv2.GaussianBlur(depth_image, (5,5), 0) # 高斯滤波去噪 normalized = cv2.normalize(blurred, None, 0, 255, cv2.NORM_MINMAX) # 归一化便于可视化 ``` ### 3. **立体视觉计算深度(无深度相机时)** 若使用普通双目摄像头,需通过以下步骤: 1. **摄像头标定** 计算相机的内参和畸变系数,并保存为文件。 2. **立体校正** 使用`cv2.stereoRectify`生成校正映射表,并用`cv2.remap`对齐图像。 3. **视差计算** 采用SGBM算法生成视差图: ```python stereo = cv2.StereoSGBM_create(minDisparity=0, numDisparities=64, blockSize=11) disparity = stereo.compute(left_image, right_image).astype(np.float32)/16 ``` 4. **视差转深度** 根据公式$$Z = \frac{f \cdot B}{d}$$计算深度,其中$f$为焦距,$B$为基线距离,$d$为视差值。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值