检测照片的清晰度

bra*_*ray 5 image-processing core-image ios

我正在寻找一个有助于检测照片清晰度的框架.我已经阅读了这篇文章,指出了这样做的方法.但是我宁愿和图书馆一起工作而不是弄脏手.

在Core Image Apple的文档中说:

Core Image可以分析图像的质量,并提供一组具有最佳设置的滤镜,用于调整色调,对比度和色调等内容,以及校正闪光瑕疵(如红眼).它通过一个方法调用完成所有这一切.

如何进行"分析图像质量"部分?我很想看到一些示例代码.

小智 1

我们使用像这样的GPUimage框架来做到这一点(计算亮度和清晰度):(这里有一些可能对您有帮助的片段)

-(BOOL) calculateBrightness:(UIImage *) image {
float result  = 0;
int i = 0;
for (int y = 0; y < image.size.height; y++) {
    for (int x = 0; x < image.size.width; x++) {
        UIColor *color = [self colorAt:image
                                   atX:x
                                  andY:y];
        const CGFloat * colors = CGColorGetComponents(color.CGColor);
        float r = colors[0];
        float g = colors[1];
        float b = colors[2];
        result += .299 * r + 0.587 * g + 0.114 * b;
        i++;
    }
}
float brightness = result / (float)i;
NSLog(@"Image Brightness : %f",brightness);
if (brightness > 0.8 || brightness < 0.3) {
    return NO;
}
return YES;
Run Code Online (Sandbox Code Playgroud)

}

-(BOOL) calculateSharpness:(UIImage *) image {
GPUImageCannyEdgeDetectionFilter *filter = [[GPUImageCannyEdgeDetectionFilter alloc] init];
BinaryImageDistanceTransform *binImagTrans = [[BinaryImageDistanceTransform alloc] init ];
NSArray *resultArray = [binImagTrans twoDimDistanceTransform:[self getBinaryImageAsArray:[filter imageByFilteringImage:image]]];

if (resultArray == nil) {
    return NO;
}

int sum = 0;
for (int x = 0; x < resultArray.count; x++) {
    NSMutableArray *col = resultArray[x];
    sum += (int)[col valueForKeyPath:@"@max.intValue"];
}

// Values under analysis
NSLog(@"Image Sharp : %i",sum);
if (sum < 26250000) { // tested - bad sharpness is under ca. 26250000
    return NO;
}
return YES;
Run Code Online (Sandbox Code Playgroud)

}

但速度非常慢。这需要大约。iPad 相机拍摄一张图像需要 40 秒。

  • 什么是二值图像距离变换?我在GPUImage库中找不到它 (2认同)