我有一个Unity/iOS应用程序,可以捕获用户的照片并在3D环境中显示它.现在我想利用CIFaceFeature找到眼睛位置,这需要访问本机(Objective-C)层.我的流程看起来像:
Unity - > WebCamTexture(编码并将图像发送到本机 - 这是缓慢的)
Obj-C - > CIFaceFeature(找眼线)
Unity - >显示眼睛位置
我有一个工作原型,但它很慢,因为我在Unity(WebCamTexture)中捕获图像,然后将其发送到Obj-C进行FaceFeature检测.似乎应该有一种方法可以简单地让我的Obj-C课"检查有源相机".这将比编码和传递图像快得多,快得多.
所以我的问题,简而言之:
谢谢!