ORB 取决于图像分辨率吗?

whi*_*dow 5 opencv surf sift orb

我正在尝试使用 OpenCV 从图像中检测和提取 ORB 特征。

但是,我得到的图像没有标准化(不同的大小、不同的分辨率等......)。

我想知道在提取 ORB 特征之前是否需要标准化我的图像,以便能够在图像之间匹配它们?

我知道特征检测是尺度不变的,但我不确定它对图像分辨率意味着什么(例如,2 个相同大小的图像,1 个对象靠近,另一个对象很远应该导致匹配,即使如果它们在图像上具有不同的比例,但是如果图像的大小不同怎么办?)。

我是否应该根据图像大小调整来自 ORB 的 patchSize(例如,如果我有一个 800px 的图像并采用 20px 的 patchSize,我应该为 400px 的图像采用 10px 的 patchSize 吗?)。

谢谢你。

更新: 我用高分辨率和低分辨率图像测试了不同的算法(ORB、SURF 和 SIFT)以查看它们的行为。在此图像中,对象大小相同,但图像分辨率不同:

在此处输入图片说明

我们可以看到 SIFT 非常稳定,尽管它的功能很少。SURF 在关键点和特征尺度方面也非常稳定。所以我的猜测是使用 SIFT 和 SURF 的低分辨率和高分辨率图像之间的特征匹配会起作用,但是 ORB 在低分辨率中有更大的特征,因此描述符与高分辨率图像中的特征不匹配。

(在高分辨率和低分辨率特征提取之间使用了相同的参数)。

所以我的猜测是,如果我们想在不同分辨率的图像之间进行匹配,最好使用 SIFT 或 SURF。

unl*_*lut 3

根据OpenCV 文档,ORB 还使用金字塔来生成多尺度特征。尽管此页面上尚不清楚详细信息。
如果我们看一下ORB 论文本身,第 6.1 节提到使用了五种不同比例的图像。但我们仍然不确定是否需要手动计算不同尺度图像上的描述符,或者它已经在 OpenCV ORB 中实现。
最后,从源代码(我写这个答案时的第 1063 行)我们看到,为关键点/描述符提取计算了不同分辨率的图像。如果您跟踪变量,您会发现 ORB 类有一个比例因子,您可以使用getScaleFactor方法访问它。

简而言之,ORB 尝试自行执行不同尺度的匹配。