是的,它对开发人员开放.
如果您现在查看ARKit文档页面,您会看到它分为"世界跟踪"和"面部跟踪"部分(以及两者共有的一些位).世界追踪是在WWDC上宣布的内容 - 通过后置摄像头在您周围的AR内容中"查看"您的设备.
人脸跟踪AR特定于iPhone X和TrueDepth相机.正如您在这些文档中看到的那样,它使用ARFaceTrackingConfiguration而不是其他配置类.它通过ARFaceAnchor物体实时提供有关脸部的信息.
在面部锚文档中,看起来有两种获取面部信息的方法.它geometry为您提供了一个可以显示的3D网格,或者用于将纹理映射到面部 - 这可能是Snapchat演示用于在主题演示中制作摔跤面具的内容.该blendShapes给你一堆的动画参数,如多远下巴是开放的,如何斜视左眼(约50其他更微妙的东西)......他们谈论使用动画木偶或化身,所以这可能是Animoji如何运作.
Apple还发布了一个示例代码项目,展示了如何完成所有这些工作,因此您可以查看代码以了解如何自行完成.(即使没有iPhone X也无法运行代码.)
| 归档时间: |
|
| 查看次数: |
1917 次 |
| 最近记录: |