我可以提供 ARKit 面部捕捉预先录制的视频吗?

ffa*_*our 5 video ios arkit

我知道以前有人问过类似的问题,但我有一个非常具体的用例,我想我可以在这里提供更多细节。

我不是 iOS 开发者,但对 ARKit 非常好奇——特别想使用 ARKit ARFaceAnchor测试面部捕捉(跟踪面部表情)。

我想知道是否可以将预先录制的视频输入 ARKit 而不是摄像头输入。我确实在这里找到了一篇关于使用“传感器重播”的示例代码文章。

https://github.com/ittybittyapps/ARRecorder/tree/master/ARRecorder

https://www.ittybittyapps.com/blog/2018-09-24-recording-arkit-sessions/

不幸的是,不可能以这种方式发布应用程序。

我知道面部捕捉不一定需要深度传感器数据(我已经通过将相机举到监视器上预先记录的面部进行了尝试)。所以我很想知道是否有人知道如何将静态的预先录制的视频提供给 ARKit?

先谢谢您的帮助 :)