Avn*_*arr 4 scaling objective-c ios
我正在使用CIDetector来查找图片中的面孔.
它返回的面的坐标是图像文件中的绝对坐标(图像尺寸明显大于屏幕尺寸).
我尝试使用converRect:toView命令.图像本身不是UIView,因此命令不起作用,我也有一些视图嵌入到彼此内部,最终显示图像.
我想将图像中找到的面的边界转换为嵌入图像中屏幕上显示的面部的确切位置.
如何实现这一目标?
来自CIDetecter(CoreImage)的坐标相对于UIKit坐标翻转.在iOS人脸检测上有很多教程,但大多数都是不完整的或者弄乱了坐标.这是一个正确的:http://nacho4d-nacho4d.blogspot.com/2012/03/coreimage-and-uikit-coordinates.html
有一点需要注意:本教程使用一个小图像,因此生成的坐标不必缩放到图像的屏幕(UIImageView)表示.假设您使用iPad相机拍摄的照片,则必须按照缩放源图像的量来缩放坐标(除非您在运行面部检测程序之前减小其大小 - 可能不是一个坏主意).您可能还需要旋转图像以获得正确的方向.
这里有一个例程用于旋转/缩放:UIImagePickerController相机预览是横向应用中的肖像
当UIImageView使用'aspect fit'呈现时,这个答案有一个很好的例程来查找图像的比例:如何在UIImageView中获得缩放的UIImage的大小?
您需要使用比例来将CIDetector坐标从全尺寸图像映射到UIImageView中显示的缩小图像.
| 归档时间: |
|
| 查看次数: |
1853 次 |
| 最近记录: |