iPhone SDK - 获取/计算相机视野(FOV)(增强现实)

qua*_*ano 8 iphone camera fieldofview augmented-reality

有没有办法找出或计算iPhone相机通过调用API的视野(FOV)?或者你需要亲身体验一下吗?

如果无法使用API​​获取或计算它,而是必须将其硬编码到应用程序中,那么找出应用程序运行的设备类型的最佳方法是什么?不同的设备具有不同的FOV(iPhone 4具有比以前版本更大的FOV.)另外,每个设备的FOV究竟有多大?

我问,因为我正在考虑制作一个增强现实应用程序,并且知道FOV是必不可少的.

Jon*_*etz 2

这个答案使用一些数学和相机信息来确定一个值。

查看ARKit,它硬编码 0.7392 弧度(42.35 度)。当我研究 AR 时,我只是举起手机摄像头,将边缘与一些地标对齐,然后测量角度。我对 3GS 的估计是横向 48 度,纵向 39 度。我对 iPhone 4 的估计横向角度为 58 度,纵向角度为 48 度。

在互联网上搜索了一下,似乎有各种各样的说法。这可能是因为人们拥有不同型号的手机。我没有从苹果公司找到有关此主题的官方信息来源。

如果我再次这样做,我会借用各种手机型号并使用地平线上的地标测量系统。没有什么能比得上你自己测量的硬性数字。

我的估算方法如下:站在距离墙壁 10 英尺的地方,观察屏幕上的图像。注意图像左侧和右侧墙上的点并测量距离。然后用三角学来计算角度。如果 a 是距墙壁的距离,o 是沿墙壁测量的长度,则 tan(A) = (o/2)/a,即角度的一半。

更新:我修正了一些不正确的计算,并添加了 iPhone 4 和我的测量方法。