为什么我们将图像归一化为均值= 0.5,标准差= 0.5?

Olr*_*mde 5 python computer-vision deep-learning tensorflow pytorch

我在Github中寻找GAN代码。我发现的代码使用pytorch。在此代码中,我们首先将图像标准化为均值= 0.5,标准差= 0.5。通常,归一化为min = 0和max =1。或者正态分布的均值为0和std =1。为什么将此归一化为均值= 0.5和std = 0.5?

transformtransfo  = transforms.Compose([
        transforms.ToTensor(),
        transforms.Normalize(mean=(0.5, 0.5, 0.5), std=(0.5, 0.5, 0.5))
])
Run Code Online (Sandbox Code Playgroud)

Sha*_*hai 7

的值meanstdtransform.normalize希望的平均和std,而是值减去和除法通过,即,估计的平均值和STD。

在您的示例中,您减去0.5,然后除以0.5,得到的图像的平均值为零,值的范围为[-1,1]