我知道以前有人问过类似的问题,但我有一个非常具体的用例,我想我可以在这里提供更多细节。
我不是 iOS 开发者,但对 ARKit 非常好奇——特别想使用 ARKit ARFaceAnchor测试面部捕捉(跟踪面部表情)。
我想知道是否可以将预先录制的视频输入 ARKit 而不是摄像头输入。我确实在这里找到了一篇关于使用“传感器重播”的示例代码文章。
https://github.com/ittybittyapps/ARRecorder/tree/master/ARRecorder
https://www.ittybittyapps.com/blog/2018-09-24-recording-arkit-sessions/
不幸的是,不可能以这种方式发布应用程序。
我知道面部捕捉不一定需要深度传感器数据(我已经通过将相机举到监视器上预先记录的面部进行了尝试)。所以我很想知道是否有人知道如何将静态的预先录制的视频提供给 ARKit?
先谢谢您的帮助 :)
归档时间: |
|
查看次数: |
214 次 |
最近记录: |