ase*_*sni 7 python image image-processing ssim scikit-image
Stackoverflow 社区,
我正在尝试bmp在 Python 上的两个图像之间计算 SSIM(结构相似性)。我发现了在python 库中实现的structure_similarity()函数skimage和来自此处托管的原始MatLab实现的等效代码。含义如下:
def structuralSimilarityIndex(ref_image, impaired_image, cs_map=False):
window = Metric.fSpecialGauss(constant.SSIM_FILTER_SIZE,
constant.SSIM_FILTER_SIGMA)
C1 = (constant.SSIM_Constant_1 * constant.PIXEL_MAX) ** 2
C2 = (constant.SSIM_Constant_2 * constant.PIXEL_MAX) ** 2
mu1 = signal.fftconvolve(window, ref_image, mode='valid')
mu2 = signal.fftconvolve(window, impaired_image, mode='valid')
mu1_sq = mu1 * mu1
mu2_sq = mu2 * mu2
mu1_mu2 = mu1 * mu2
sigma1_sq = signal.fftconvolve(
window, ref_image*ref_image, mode='valid') - mu1_sq
sigma2_sq = signal.fftconvolve(
window, impaired_image*impaired_image, mode='valid') - mu2_sq
sigma12 = signal.fftconvolve(
window, ref_image*impaired_image, mode='valid') - mu1_mu2
if cs_map:
return (((2 * mu1_mu2 + C1) * (2 * sigma12 + C2)) / ((mu1_sq + mu2_sq + C1) * (sigma1_sq + sigma2_sq + C2)), (2.0 * sigma12 + C2) / (sigma1_sq + sigma2_sq + C2))
else:
return np.mean(((2 * mu1_mu2 + C1) * (2 * sigma12 + C2)) / ((mu1_sq + mu2_sq + C1) * (sigma1_sq + sigma2_sq + C2)))
Run Code Online (Sandbox Code Playgroud)
我正在使用这段代码阅读图像:
ref_image = np.asfarray(Image.open('ref_image.bmp').convert('L'))
impaired_image = np.asfarray(Image.open('impaired_image.bmp').covert('L)
Run Code Online (Sandbox Code Playgroud)
输入图像的形状和dtype二者的ref_image和impaired_image 分别为:
(512, 512) float64
(512, 512) float64
我已经使用相同的条件和相同的输入图像进行了测试,如下所示:
# Using the above code
structuralSimilarityIndex(ref_image, impaired_image, cs_map=False)
# Using the function imported from skimage.metrics
structural_similarity(ref_image, impaired_image, gaussian_weights=False, use_sample_covariance=False)
Run Code Online (Sandbox Code Playgroud)
结果是如此不同,这里的结果:
来自Skimagepython 库的 SSIM :
SSIM : 0.38135154028457885
来自上面代码的 SSIM:
SSIM : 0.8208087737160036
编辑:
我已经添加了阅读和调用代码
上述Python代码来自信号处理库,据作者称,该函数试图精确模仿SSIM作者提供的ssim.ma MATLAB的功能
更新:
我已经在相同的图像上测试了在 MatLab 中编写的原始代码,结果如下:
SSIM:0.8424
这与上面给出的 Python 实现的结果相差不远。
我在 scikit-image Github 存储库上打开了一个问题,我得到了答案。这是答案,我没有对答案进行任何更改,您可以在此处找到它:
我认为这里的主要问题是您从 PIL 计算图像的方式导致浮点图像,但值在 [0, 255.0] 范围内的图像。当输入为浮点数时,skimage 将假定 data_range 的范围为 [-1.0, 1.0],因此您需要手动指定 data_range=255。
另外,请参阅文档字符串的注释部分,以获取设置 gaussian_weights=True, sigma=1.5 以更接近 Wang 等人的 Matlab 脚本的建议。阿尔。(我认为最近的 Matlab 也有自己的内置 SSIM 实现,但我没有尝试与那种情况进行比较,不知道它是否完全相同)。
ref_image = np.asfarray(Image.open('avion.bmp').convert('L'))
impaired_image = np.asfarray(Image.open('avion_jpeg_r5.bmp').convert('L'))
structural_similarity(ref_image, impaired_image, multichannel=True, gaussian_weights=True, sigma=1.5, use_sample_covariance=False, data_range=255)
Run Code Online (Sandbox Code Playgroud)
0.8292当我尝试它时给出。
或者,您可以使用 skimage.io.imread 和 rgb2gray 读取数据并将其转换为灰度。在这种情况下,值将在 [0, 1.0] 范围内缩放,并且 data_range 应设置为 1.0。
from skimage.io import imread
from skimage.color import rgb2gray
ref_image = imread('avion.bmp')
ref_image = rgb2gray(ref_image)
impaired_image = imread('avion_jpeg_r5.bmp')
impaired_image = rgb2gray(impaired_image)
structural_similarity(ref_image, impaired_image, multichannel=True, gaussian_weights=True, sigma=1.5, use_sample_covariance=False, data_range=1.0)
Run Code Online (Sandbox Code Playgroud)
给
0.8265
我认为上述两种情况之间的微小差异可能是由于rgb2gray使用了与 PILconvert方法不同的亮度转换。