R.scale()和sklearn.preprocessing.scale()之间的区别

Ben*_*enR 5 python r scale scikit-learn

我目前正将数据分析从R转移到Python.在R i中缩放数据集时,将使用R.scale(),在我的理解中将执行以下操作:(x-mean(x))/ sd(x)

要替换该函数,我尝试使用sklearn.preprocessing.scale().根据我对描述的理解,它做了同样的事情.尽管如此,我运行了一个小测试文件并发现,这两种方法都有不同的返回值.显然,标准偏差并不相同......有人能够解释为什么标准偏差会相互"偏离"吗?

MWE:

# import packages
from sklearn import preprocessing
import numpy
import rpy2.robjects.numpy2ri
from rpy2.robjects.packages import importr
rpy2.robjects.numpy2ri.activate()
# Set up R namespaces
R = rpy2.robjects.r


np1 = numpy.array([[1.0,2.0],[3.0,1.0]])
print "Numpy-array:"
print np1

print "Scaled numpy array through R.scale()"
print R.scale(np1)
print "-------"
print "Scaled numpy array through preprocessing.scale()"
print preprocessing.scale(np1, axis = 0, with_mean = True, with_std = True)
scaler = preprocessing.StandardScaler()
scaler.fit(np1)
print "Mean of preprocessing.scale():"
print scaler.mean_
print "Std of preprocessing.scale():"
print scaler.std_
Run Code Online (Sandbox Code Playgroud)

输出: MWE生成的输出

Sid*_*Sid 5

似乎与标准差的计算方式有关。

>>> import numpy as np
>>> a = np.array([[1, 2],[3, 1]])
>>> np.std(a, axis=0)
array([ 1. ,  0.5])
>>> np.std(a, axis=0, ddof=1)
array([ 1.41421356,  0.70710678])
Run Code Online (Sandbox Code Playgroud)

numpy.std 文档中

ddof:int,可选

表示Delta自由度。计算中使用的除数为N-ddof,其中N表示元素数。默认情况下,ddof为零。

显然,R.scale()使用ddof=1,但sklearn.preprocessing.StandardScaler()使用ddof=0

编辑:(以解释如何使用备用ddof)

在没有访问StandardScaler()对象本身的变量的情况下,似乎似乎没有一种简单的方法来使用替代ddof计算std。

sc = StandardScaler()
sc.fit(data)
# Now, sc.mean_ and sc.std_ are the mean and standard deviation of the data
# Replace the sc.std_ value using std calculated using numpy
sc.std_ = numpy.std(data, axis=0, ddof=1)
Run Code Online (Sandbox Code Playgroud)