Rya*_*edy 8 c++ opencv camera-calibration
我正在开发一个OpenCV项目,我正在进行校准.我相信我已正确实现了代码; 但是我的摄像机矩阵值不同,有时会变化很大.经过6次重复显示校准模式10次后,我得到(为清晰起见,截断小数):
[573, 0, 386;
0, 573, 312;
0, 0, 1]
[642, 0, 404;
0, 644, 288;
0, 0, 1]
[664, 0, 395;
0, 665, 272;
0, 0, 1]
[629, 0, 403;
0, 630, 288;
0, 0, 1]
[484, 0, 377;
0, 486, 307;
0, 0, 1]
[644, 0, 393;
0, 643, 289;
0, 0, 1]
Run Code Online (Sandbox Code Playgroud)
这些值相差不可接受的数量.我需要知道给定参数的准确程度.这些大的不准确性的原因通常是什么?如何评估给定矩阵的正确性?它似乎取决于我展示模式的距离和方向的多样性,但我无法理解模式.
using namespace cv;
using namespace std;
int main(int, char**)
{
VideoCapture cap(1);
if(!cap.isOpened())
return -1;
cap.set(CV_CAP_PROP_FRAME_WIDTH,800);
cap.set(CV_CAP_PROP_FRAME_HEIGHT,600);
Mat edges;
Size size(9,17);
int counter = 10;
vector<Point2f> corners;
bool found;
vector<Point3f> chess = fr::ChessGen::getBoard(size,1,true);
vector<vector<Point3f> > objectPoints;
vector<vector<Point2f> > imagePoints;
Mat camera = Mat::eye(3,3,CV_64F);
Mat distortion = Mat::zeros(8, 1, CV_64F);
vector<Mat > rvecs;
vector<Mat > tvecs;
namedWindow("edges",1);
for(;;)
{
Mat frame;
cap >> frame;
cvtColor(frame, edges, CV_BGR2GRAY);
found = findCirclesGrid(edges,size,corners
,CALIB_CB_ASYMMETRIC_GRID
);
if(found) frame.convertTo(edges,-1,0.2);
drawChessboardCorners(edges,size,corners,found);
imshow("edges", edges);
if(found){
if(waitKey(200)>=0){
objectPoints.push_back(chess);
imagePoints.push_back(corners);
if(--counter<= 0)
break;
}
}
else waitKey(30);
}
calibrateCamera(objectPoints,imagePoints,Size(800,600),camera,distortion,rvecs,tvecs,0);
if(found) imwrite("/home/ryan/snapshot.png",edges);
cout << camera << endl;
return 0;
}
Run Code Online (Sandbox Code Playgroud)
取决于相机/镜头和所需的精度,但您可能需要超过10个位置,您需要覆盖更广泛的视角.
我假设从800x600开始,这是一个带有简单广角镜头的网络摄像头,有很多失真.我会说你需要在相机的3-4个不同角度的每个角度中对目标进行6-8个位置/旋转.您还需要确保目标和相机是固定的,并且在图像期间不要移动.再次假设相机具有简单的自动增益,您应确保目标光线充足,因此它将使用快速快门和低增益.
openCV使用的技术的一个问题是它需要查看目标上的所有角点/点,以便在解决方案中识别和使用帧 - 因此很难在图像的角落附近获得点.您应该检查数据中校准中实际使用的图像数量 - 它可能只是找到10个图像中的一些图像上的所有点并将解决方案基于该子集.