Ani*_*ala 6 iphone ios iphone-x
我做了一些搜索,发现了各种各样的例子,关于iPhone X Face ID的文档,以及它如何用于身份验证,动画表情符号等各种功能.
想要检查是否有API/SDK来获取从iPhone X传感器到应用程序的原始深度图?
根据我的理解,深度计算是基于投影模式完成的.这可用于获取传感器前方任何物体的深度剖面.(可能取决于对象的纹理.)
您至少需要Xcode 9.1中的iOS 11.1 SDK(截至本文撰写时均为测试版).这样,您builtInTrueDepthCamera将成为用于选择捕获设备的相机类型之一:
let device = AVCaptureDevice.default(.builtInTrueDepthCamera, for: .video, position: .front)
Run Code Online (Sandbox Code Playgroud)
然后你可以继续AVCaptureSession使用TrueDepth摄像头设备进行设置,并且可以使用该捕捉会话来捕捉深度信息,就像使用iPhone 7 Plus和8 Plus上的后置双摄像头一样:
打开照片的深度拍摄AVCapturePhotoOutput.isDepthDataDeliveryEnabled,然后拍摄照片AVCapturePhotoSettings.isDepthDataDeliveryEnabled.您可以depthData从AVCapturePhoto捕获后收到的对象中读取,或者embedsDepthDataInPhoto如果您只想触发并忘记(并稍后从捕获的图像文件中读取数据),则打开.
获取深度贴图的实时源AVCaptureDepthDataOutput.那一个就像视频数据输出; 而不是直接录制到电影文件,它为您的代表提供了一个定时的图像序列(或在这种情况下,深度)缓冲区.如果您还要同时捕捉视频,AVCaptureDataOutputSynchronizer可能很方便确保您将协调的深度贴图和颜色框架结合在一起.
正如Apple的设备兼容性文档所述,您需要选择builtInTrueDepthCamera设备以获取任何这些深度捕获选项.如果你选择正面builtInWideAngleCamera,它就像任何其他自拍相机,只捕捉照片和视频.
只是强调:从API的角度来看,在iPhone X上使用前置TrueDepth摄像头捕捉深度与在iPhone 7 Plus和8 Plus上使用背面双摄像头捕捉深度非常相似.因此,如果您想深入了解所有这些深度捕获业务的工作原理,以及您可以使用捕获的深度信息做些什么,请查看WWDC17会话507:捕获iPhone摄影中的深度.
| 归档时间: |
|
| 查看次数: |
3328 次 |
| 最近记录: |