jan*_*del 5 iphone objective-c uiimage ios gpuimage
在我的应用程序中,我有一个'从相机捕获'功能,我正在使用Brad Larson(ty)的GPUImageFramework,GPUImageStillCamera捕获静态图像时.
stillCamera = [[GPUImageStillCamera alloc] initWithSessionPreset:AVCaptureSessionPresetPhoto cameraPosition:
AVCaptureDevicePositionBack];
Run Code Online (Sandbox Code Playgroud)
如你看到的.会话预设是AVCaptureSessionPresetPhoto在iPhone 4中给我1529x2048输出和4s(8mp)设备给我2448x3264.
下图是我如何使用GPUStillCamera.这里,存在矩形,在这种情况下,是捕获图像的裁剪矩形.

我捕获图像时的代码片段.
- (IBAction)takePhoto:(id)sender
{
[stillCamera capturePhotoAsJPEGProcessedUpToFilter:filter withCompletionHandler:^(NSData *processedJPEG, NSError *error){
//1529x2048 when iPhone 4 and 2448x3265 when on 4s
UIImage *rawImage = [[UIImage alloc]initWithCGImage:[[UIImage imageWithData:processedJPEG]CGImage]scale:1.0 orientation:UIImageOrientationUp];
**CGRect rect = CGRect{?,?,?,?};**
UIImage *imageFromRect = [rawImage imageAtRect:rect ];
}
Run Code Online (Sandbox Code Playgroud)
我的问题是.我如何知道我可以传递给imageAtRect将从中绘制子图像的方法的点(x,y,w,h)rawImage?并且只会获得矩形内的图像部分(无论拍摄图像的分辨率如何),如上面的屏幕所示?我应该手动操作还是有建议的数学技巧?
谢谢!
您可以使用此图像裁剪类和库文件,并且可以获得裁剪后的尺寸以及原点位置UIImage。
http://code4app.net/ios/Custom-image-cropper/51e5f03f6803fac530000000
另外,如果您愿意,它可以动态地相应地改变裁剪图像的大小。易于使用和实施。请看一遍教程。
| 归档时间: |
|
| 查看次数: |
2057 次 |
| 最近记录: |