我正在尝试使用OPENCV中的Stereo Vision实现对象检测.我正在使用两台Logitech-C310相机.但我没有使用两个摄像头同步帧.两个相机帧捕获之间的时差也不相同.
如何同步?
在Bumblebee,Minoru等立体相机中我们需要同步吗?
感谢您的答复.
我正在尝试使用移动的机器人平台实现人员跟踪.我cvQueryFrame(capture)用来从两个摄像头中逐个捕获每个帧.这是我正在使用的代码部分:
CvCapture* capture_1 = cvCreateCameraCapture(0);
Cvcapture* capture_2 = cvCreateCameraCapture(1);
for(i=1;i<=20;i++)
{
frame_1= cvQueryFrame(capture_1);
frame_2= cvQueryFrame(Capture_2);
//processing of frames//
}
Run Code Online (Sandbox Code Playgroud)
即使有人在摄像机前以中等速度移动,frame_1和frame_2之间的差异也是可见的.
这是因为延迟cvQueryFrame(capture)吗?
我想从立体摄像机获得物体的真实距离。我正在使用学习OpenCV O'Reilly书中给出的OpenCV示例代码。得到视差图后,我想使用公式:
距离=焦距*基线距离/视差
问题是 :
我得到了差距的消极价值。如何转换这些值,以便可以在实际深度计算中使用它们?
在上面的公式中,焦距和基线距离以mm为单位(由重投影矩阵返回),而视差以像素为单位。因此结果将以mm ^ 2 /像素为单位。如何将视差值从像素转换为毫米。