bra*_*ray 5 image-processing core-image ios
我正在寻找一个有助于检测照片清晰度的框架.我已经阅读了这篇文章,指出了这样做的方法.但是我宁愿和图书馆一起工作而不是弄脏手.
在Core Image Apple的文档中说:
Core Image可以分析图像的质量,并提供一组具有最佳设置的滤镜,用于调整色调,对比度和色调等内容,以及校正闪光瑕疵(如红眼).它通过一个方法调用完成所有这一切.
如何进行"分析图像质量"部分?我很想看到一些示例代码.
小智 1
我们使用像这样的GPUimage框架来做到这一点(计算亮度和清晰度):(这里有一些可能对您有帮助的片段)
-(BOOL) calculateBrightness:(UIImage *) image {
float result = 0;
int i = 0;
for (int y = 0; y < image.size.height; y++) {
for (int x = 0; x < image.size.width; x++) {
UIColor *color = [self colorAt:image
atX:x
andY:y];
const CGFloat * colors = CGColorGetComponents(color.CGColor);
float r = colors[0];
float g = colors[1];
float b = colors[2];
result += .299 * r + 0.587 * g + 0.114 * b;
i++;
}
}
float brightness = result / (float)i;
NSLog(@"Image Brightness : %f",brightness);
if (brightness > 0.8 || brightness < 0.3) {
return NO;
}
return YES;
Run Code Online (Sandbox Code Playgroud)
}
-(BOOL) calculateSharpness:(UIImage *) image {
GPUImageCannyEdgeDetectionFilter *filter = [[GPUImageCannyEdgeDetectionFilter alloc] init];
BinaryImageDistanceTransform *binImagTrans = [[BinaryImageDistanceTransform alloc] init ];
NSArray *resultArray = [binImagTrans twoDimDistanceTransform:[self getBinaryImageAsArray:[filter imageByFilteringImage:image]]];
if (resultArray == nil) {
return NO;
}
int sum = 0;
for (int x = 0; x < resultArray.count; x++) {
NSMutableArray *col = resultArray[x];
sum += (int)[col valueForKeyPath:@"@max.intValue"];
}
// Values under analysis
NSLog(@"Image Sharp : %i",sum);
if (sum < 26250000) { // tested - bad sharpness is under ca. 26250000
return NO;
}
return YES;
Run Code Online (Sandbox Code Playgroud)
}
但速度非常慢。这需要大约。iPad 相机拍摄一张图像需要 40 秒。
归档时间: |
|
查看次数: |
1374 次 |
最近记录: |