opencv 双目标定程序

本文介绍了一种使用棋盘格图像进行相机标定的方法,包括如何捕获棋盘格图像、提取角点并进行亚像素级精确定位,最终完成相机内部参数及畸变系数的计算。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

// opencv_BD.cpp : 定义控制台应用程序的入口点。
//


#include "stdafx.h"
// learn_opencv_BD.cpp : 定义控制台应用程序的入口点。
//


#include "stdafx.h"
#include <cv.h>
#include <highgui.h>
#include <stdio.h>
#include <stdlib.h>


void help(){
printf("\n\n"
" Calling convention:\n"
" ch11_ex11_1  board_w  board_h  number_of_boards  skip_frames\n"
"\n"
"   WHERE:\n"
"     board_w, board_h   -- are the number of corners along the row and columns respectively\n"
"     number_of_boards   -- are the number of chessboard views to collect before calibration\n"
"     skip_frames        -- are the number of frames to skip before trying to collect another\n"
"                           good chessboard.  This allows you time to move the chessboard.  \n"
"                           Move it to many different locations and angles so that calibration \n"
"                           space will be well covered. \n"
"\n"
" Hit ‘p’ to pause/unpause, ESC to quit\n"
"\n");
}
//


//
int n_boards = 0; //Will be set by input list
int board_dt = 90; //Wait 90 frames per chessboard view
int board_w;
int board_h;
int main(int argc, char* argv[]) {
  
  CvCapture* capture;// = cvCreateCameraCapture( 0 );
 // assert( capture );


  if(argc != 5){
    printf("\nERROR: Wrong number of input parameters");
    help();
    return -1;
  }
  board_w  = atoi(argv[1]);
  board_h  = atoi(argv[2]);
  n_boards = atoi(argv[3]);
  board_dt = atoi(argv[4]);
  
  int board_n  = board_w * board_h;
  CvSize board_sz = cvSize( board_w, board_h );
  capture = cvCreateCameraCapture( 0 );
  if(!capture) 
     { 
printf("\nCouldn't open the camera\n");
help();
return -1;
     }


  cvNamedWindow( "Calibration" );
  cvNamedWindow( "Raw Video");
  //ALLOCATE STORAGE
  CvMat* image_points      = cvCreateMat(n_boards*board_n,2,CV_32FC1);//二维图像点
  CvMat* object_points     = cvCreateMat(n_boards*board_n,3,CV_32FC1);//三维世界坐标点
  CvMat* point_counts      = cvCreateMat(n_boards,1,CV_32SC1);
  CvMat* intrinsic_matrix  = cvCreateMat(3,3,CV_32FC1);//内部参数矩阵
  CvMat* distortion_coeffs = cvCreateMat(4,1,CV_32FC1);//畸变矩阵


  CvPoint2D32f* corners = new CvPoint2D32f[ board_n ];//角点存储矩阵
  int corner_count;
  int successes = 0;
  int step, frame = 0;


  IplImage *image = cvQueryFrame( capture );//获取下一图片帧
  IplImage *gray_image = cvCreateImage(cvGetSize(image),8,1);//subpixel
 
  // CAPTURE CORNER VIEWS LOOP UNTIL WE’VE GOT n_boards 
  // SUCCESSFUL CAPTURES (ALL CORNERS ON THE BOARD ARE FOUND)
  //
  help();
  while(successes < n_boards)
  {
    //Skip every board_dt frames to allow user to move chessboard
    if((frame++ % board_dt) == 0) //直到设定的获取数量达到为止
 {
       //Find chessboard corners:
       int found = cvFindChessboardCorners(
                image, board_sz, corners, &corner_count, 
                CV_CALIB_CB_ADAPTIVE_THRESH | CV_CALIB_CB_FILTER_QUADS
       );


       //Get Subpixel accuracy on those corners
       cvCvtColor(image, gray_image, CV_BGR2GRAY);
       cvFindCornerSubPix(gray_image, corners, corner_count, 
                  cvSize(11,11),cvSize(-1,-1), cvTermCriteria(    
                  CV_TERMCRIT_EPS+CV_TERMCRIT_ITER, 30, 0.1 ));


       //Draw it
       cvDrawChessboardCorners(image, board_sz, corners, 
                  corner_count, found);//画出角点图,该步骤并非必要步骤
      // cvShowImage( "Calibration", image );
   
       // If we got a good board, add it to our data
       if( corner_count == board_n ) {
          cvShowImage( "Calibration", image ); //show in color if we did collect the image
          step = successes*board_n;
          for( int i=step, j=0; j<board_n; ++i,++j ) {
             CV_MAT_ELEM(*image_points, float,i,0) = corners[j].x;
             CV_MAT_ELEM(*image_points, float,i,1) = corners[j].y;
             CV_MAT_ELEM(*object_points,float,i,0) = j/board_w;
             CV_MAT_ELEM(*object_points,float,i,1) = j%board_w;
             CV_MAT_ELEM(*object_points,float,i,2) = 0.0f;
          }
          CV_MAT_ELEM(*point_counts, int,successes,0) = board_n;    
          successes++;
          printf("Collected our %d of %d needed chessboard images\n",successes,n_boards);
       }
       else
         cvShowImage( "Calibration", gray_image ); //Show Gray if we didn't collect the image
    } //end skip board_dt between chessboard capture


    //Handle pause/unpause and ESC
    int c = cvWaitKey(15);
    if(c == 'p'){  
       c = 0;
       while(c != 'p' && c != 27){
            c = cvWaitKey(250);
       }
     }
     if(c == 27)
        return 0;
    image = cvQueryFrame( capture ); //Get next image
    cvShowImage("Raw Video", image);
  } //END COLLECTION WHILE LOOP.
  cvDestroyWindow("Calibration");
  printf("\n\n*** CALLIBRATING THE CAMERA...");
  //ALLOCATE MATRICES ACCORDING TO HOW MANY CHESSBOARDS FOUND
  CvMat* object_points2  = cvCreateMat(successes*board_n,3,CV_32FC1);
  CvMat* image_points2   = cvCreateMat(successes*board_n,2,CV_32FC1);
  CvMat* point_counts2   = cvCreateMat(successes,1,CV_32SC1);
  //TRANSFER THE POINTS INTO THE CORRECT SIZE MATRICES
  for(int i = 0; i<successes*board_n; ++i){
      CV_MAT_ELEM( *image_points2, float, i, 0) = 
             CV_MAT_ELEM( *image_points, float, i, 0);
      CV_MAT_ELEM( *image_points2, float,i,1) =   
             CV_MAT_ELEM( *image_points, float, i, 1);
      CV_MAT_ELEM(*object_points2, float, i, 0) =  
             CV_MAT_ELEM( *object_points, float, i, 0) ;
      CV_MAT_ELEM( *object_points2, float, i, 1) = 
             CV_MAT_ELEM( *object_points, float, i, 1) ;
      CV_MAT_ELEM( *object_points2, float, i, 2) = 
             CV_MAT_ELEM( *object_points, float, i, 2) ;
  } 
  for(int i=0; i<successes; ++i){ //These are all the same number
    CV_MAT_ELEM( *point_counts2, int, i, 0) = 
             CV_MAT_ELEM( *point_counts, int, i, 0);
  }
  cvReleaseMat(&object_points);
  cvReleaseMat(&image_points);
  cvReleaseMat(&point_counts);


  // At this point we have all of the chessboard corners we need.
  // Initialize the intrinsic matrix such that the two focal
  // lengths have a ratio of 1.0
  //
  CV_MAT_ELEM( *intrinsic_matrix, float, 0, 0 ) = 1.0f;
  CV_MAT_ELEM( *intrinsic_matrix, float, 1, 1 ) = 1.0f;


  //CALIBRATE THE CAMERA!
  cvCalibrateCamera2(
      object_points2, image_points2,
      point_counts2,  cvGetSize( image ),
      intrinsic_matrix, distortion_coeffs,
      NULL, NULL,0  //CV_CALIB_FIX_ASPECT_RATIO
  );


  // SAVE THE INTRINSICS AND DISTORTIONS
  printf(" *** DONE!\n\nStoring Intrinsics.xml and Distortions.xml files\n\n");
  cvSave("Intrinsics.xml",intrinsic_matrix);
  cvSave("Distortion.xml",distortion_coeffs);


  // EXAMPLE OF LOADING THESE MATRICES BACK IN:
  CvMat *intrinsic = (CvMat*)cvLoad("Intrinsics.xml");
  CvMat *distortion = (CvMat*)cvLoad("Distortion.xml");


  // Build the undistort map which we will use for all 
  // subsequent frames.
  //
  IplImage* mapx = cvCreateImage( cvGetSize(image), IPL_DEPTH_32F, 1 );
  IplImage* mapy = cvCreateImage( cvGetSize(image), IPL_DEPTH_32F, 1 );
  cvInitUndistortMap(
    intrinsic,
    distortion,
    mapx,
    mapy
  );
  // Just run the camera to the screen, now showing the raw and
  // the undistorted image.
  //
  cvNamedWindow( "Undistort" );
  while(image) {
    IplImage *t = cvCloneImage(image);
    cvShowImage( "Raw Video", image ); // Show raw image
    cvRemap( t, image, mapx, mapy );     // Undistort image
    cvReleaseImage(&t);
    cvShowImage("Undistort", image);     // Show corrected image


    //Handle pause/unpause and ESC
    int c = cvWaitKey(15);
    if(c == 'p'){ 
       c = 0;
       while(c != 'p' && c != 27){
            c = cvWaitKey(250);
       }
    }
    if(c == 27)
        break;
    image = cvQueryFrame( capture );
  } 


  return 0;
}





标定步骤实现方法 1 计算标靶平面与图像平面之间的映射矩阵 计算标靶平面与图像平面之间的映射矩阵,计算映射矩阵时不考虑摄像机的成像模型,只是根据平面标靶坐标点和对应的图像坐标点的数据,利用最小二乘方法计算得到[ [ix] ] .2 求解摄像机参数矩阵 由计算得到的标靶平面和图像平面的映射矩阵得到与摄像机内部参数相关的基本方关系,求解方得到摄像机内部参数,考虑镜头的畸变模型,将上述解方获 得的内部参数作为初值,进行非线性优化搜索,从而计算出所有参数的准确值 [[x] ] .3 求解左右两摄像机之间的相对位置关系 设双目视觉系统左右摄像机的外部参数分别为Rl, Tl,与Rr, Tr,,即Rl, Tl表示左摄像机与世界坐标系的相对位置,Rr, Tr表示右摄像机与世界坐标系的相对位置 [[xi] ]。因此,对于空间任意一点,如果在世界坐标系、左摄像机坐标系和右摄像机坐标系中的坐标分别为Xw,, Xl , Xr,则有:Xl=RlXw+Tl ;Xr=RrXw+Tr .因此,两台摄像机之间的相对几何关系可以由下式表示R=RrRl-1 ;T=Tr- RrRl-1Tl 在实际标定中,由标定靶对两台摄像机同时进行摄像标定,以分别获得两台摄像机的内、外参数,从而不仅可以标定出摄像机的内部参数,还可以同时标定双目视觉系统的结构参数 [xii] 。由单摄像机标定可以知道,标定靶每变换一个位置就可以得到一组摄像机外参数:Rr,Tr,与Rl, Tl,因此,由公式R=RrRl-1 ;T=Tr- RrRl-1Tl,可以得到一组结构参数R和T
实现效果:http://v.youku.com/v_show/id_XMTU2Mzk0NjU3Ng==.html 如何在你的电脑上运行这个程序? 1,它需要cvblobslib这一个opencv的扩展库来实现检测物体与给物体画框的功能,具体安装信息请见: http://dsynflo.blogspot.com/2010/02/cvblobskib-with-opencv-installation.html,当你配置好cvblobslib之后,你可以用这一的程序进行测试:http://dl.dropbox.com/u/110310945/Blobs%20test.rar 2,视频中两个摄像头之间的距离是6cm,你可以根据你摄像头的型号,来选择合适的距离来达到最好的效果。 3,在进行测距之前,首先需要对摄像头进行标定,那么如何标定呢? 在stdafx.h中把"#define CALIBRATION 0"改成 “#define CALIBRATION 1”表示进行标定标定之后,你就可以在工目录下的"CalibFile" 文件夹中得到标定信息的文件。如果标定效果还不错,你就可以吧"#define CALIBRATION " 改成0,以后就不需要再标定,直接使用上一次的标定信息。你还需要把"#define ANALYSIS_MODE 1"这行代码放到stdafx.h中。 4,视频中使用的是10*7的棋牌格,共摄录40帧来计算摄像头的各种参数,如果你像使用其他棋盘格,可以在 "StereoFunctions.cpp"文件中修改相应参数。 5,如果你无法打开摄像头,可以在 "StereoGrabber.cpp"文件中修改代码“cvCaptureFromCAM(index)”中index的值。 6,About computing distance: it interpolates the relationship between depth-value and real-distance to third degree polynomial. So i used excel file "interpolation" for interpolation to find k1 to k4, you should find your own value of these parameters. 7,你可以通过调整控制窗口中各个参数的滑块,从而来得到更好的视差图。 8,在目录下的”distance“文件夹中,有计算距离信息的matlab代码。 9,如果你想了解基本的理论,可以看一下这个文档:http://scholar.lib.vt.edu/theses/available/etd-12232009-222118/unrestricted/Short_NJ_T_2009.pdf 视频中环境:vs2008,opencv2.1
### 回答1: OpenCV是一个开源的计算机视觉库,其中包含了一些用于双目相机标定的函数和工具。双目相机标定是一种用于确定相机的内部参数和外部参数的过,以便在后续的图像处理中能够准确地测量和重构三维场景。 双目相机标定程序主要包含以下步骤: 1. 收集标定图像:首先需要收集一系列用于标定的图像,这些图像通常包含了在不同位置和角度下的标定板。标定板是一种特殊的棋盘格,由于其具有一些规律的特征点,可以用于准确地估计相机的参数。 2. 提取特征点:通过使用OpenCV中的函数,可以从标定图像中提取出待标定相机的特征点。这些特征点通常是图像中棋盘格的角点,可以通过计算这些角点的像素坐标来得到双目相机的内部参数。 3. 计算内部参数:根据提取的特征点,可以使用OpenCV提供的函数,计算出相机的内部参数矩阵,包括焦距和主点的坐标。这些参数可以在后续的立体视觉算法中用于图像对齐和三维重构。 4. 计算外部参数:在这一步骤中,通过在不同位置和角度下拍摄的标定图像,计算出相机的外部参数,包括旋转矩阵和平移向量。这些参数描述了相机在世界坐标系中的位置和姿态,可以用于提取双目图像之间的几何关系。 5. 检验标定结果:使用得到的内部参数和外部参数,可以对标定图像进行重构,计算出三维空间中的点坐标。通过比较这些重构的点和实际场景中的点的位置,可以评估标定结果的准确性。 通过使用OpenCV提供的双目相机标定程序,可以方便地进行相机的内部参数和外部参数的计算,为后续的立体视觉分析和三维重构提供准确的相关参数。 ### 回答2: OpenCV双目相机标定程序是一种用于测量并校正双目相机系统的工具。它可以帮助我们确定相机的内部参数(例如焦距、主点位置),以及相机之间的外部参数(例如旋转和平移矩阵),从而使我们能够在三维空间中精确地重建场景。 在标定中,我们需要使用一个具有已知精确三维坐标的物体,并且将它从不同的角度拍摄。标定程序会分析双目图像对之间的差异,并根据每个图像中物体的对应点来计算相机参数。 首先,我们需要提供一组包含世界坐标和相应图像中的对应点的输入数据。这些对应点可以通过人工标记或使用特征检测算法(如SIFT或SURF)自动获取。 接下来,标定程序会根据所提供的数据计算相机的内部参数。这些参数包括焦距(表示相机对物体的放大倍数)、主点位置(表示物体与相机视野中心的偏移)以及一些畸变参数(用于补偿透视变形)。 此外,标定程序还会计算相机之间的外部参数,即旋转和平移矩阵。这些参数描述了相机之间的位置和方向关系,从而可以将不同相机视角下的图像对齐到同一坐标系中进行后续处理。 最后,标定程序会输出一组包含相机内部和外部参数的数据。这些参数可以用于后续的双目视觉处理任务,如立体匹配、深度估计等。 总的来说,OpenCV双目相机标定程序是一个用于确定双目相机系统参数的工具。通过有效的标定,我们可以提高双目视觉任务的准确性和稳定性,从而更好地应用于三维重建、目标检测、机器人导航等领域。 ### 回答3: OpenCV双目相机标定程序是一个用于校准双目相机的工具。双目相机标定是确定左右相机的内外参数,以便进行立体视觉的关键步骤。 首先,双目相机标定程序需要一组已知的空间3D点的坐标和对应的图像2D点。这些3D-2D点对被称为标定板。在标定中,我们需要多次对标定板进行不同的位置和姿态的拍摄,并记录下每次拍摄时两个相机的图像。这些图像将用于计算相机的内参和外参。 通过在每个图像上检测标定板上的角点,我们可以获取2D点的像素坐标。然后,通过比较3D点和2D点的对应关系,我们可以使用非线性优化方法计算出相机的内参数(如焦距和主点坐标)以及外参数(如相机之间的旋转和平移矩阵)。 进行相机标定时,需要使用OpenCV的cv2.calibrateCamera()函数。该函数将接受标定板的2D和3D点对,并返回相机的内参数矩阵、畸变系数和外参数。标定板上的拍摄应该包括不同的位置和姿态。 值得一提的是,标定中需要注意一些细节,比如保持相机固定、使用高质量的标定板、适当的角点检测等。标定结果的准确性将决定后续使用双目相机进行立体视觉的精度。 总之,OpenCV双目相机标定程序是一个强大的工具,可以帮助我们获得双目相机的校准参数,为后续的立体视觉应用奠定基础。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值