Keras和Sklearn logreg返回不同的结果

Dar*_*ina 11 scikit-learn logistic-regression keras

我正在将Keras编写的逻辑回归器的结果与默认的Sklearn Logreg进行比较.我的输入是一维的.我的输出有两个类,我对输出属于类1的概率感兴趣.

我期待结果几乎相同,但它们甚至都不是很接近.

以下是我生成随机数据的方法.请注意,X_train,X_test仍然是向量,我只是使用大写字母,因为我已经习惯了.在这种情况下也不需要缩放.

X = np.linspace(0, 1, 10000)
y = np.random.sample(X.shape)
y = np.where(y<X, 1, 0)
Run Code Online (Sandbox Code Playgroud)

这是在X上绘制的y.在这里做回归不是火箭科学.

这里是在x上绘制的

我做一个标准的火车测试分裂:

X_train, X_test, y_train, y_test = train_test_split(X, y)
X_train = X_train.reshape(-1,1)
X_test = X_test.reshape(-1,1)
Run Code Online (Sandbox Code Playgroud)

接下来,我训练一个默认的逻辑回归量:

from sklearn.linear_model import LogisticRegression
sk_lr = LogisticRegression()
sk_lr.fit(X_train, y_train)
sklearn_logreg_result = sk_lr.predict_proba(X_test)[:,1]
Run Code Online (Sandbox Code Playgroud)

我在Keras写的一个逻辑回归量:

from keras.models import Sequential
from keras.layers import Dense
keras_lr = Sequential()
keras_lr.add(Dense(1, activation='sigmoid', input_dim=1))
keras_lr.compile(loss='mse', optimizer='sgd', metrics=['accuracy'])
_ = keras_lr.fit(X_train, y_train, verbose=0)
keras_lr_result = keras_lr.predict(X_test)[:,0]
Run Code Online (Sandbox Code Playgroud)

一个手工制作的解决方案:

pearson_corr = np.corrcoef(X_train.reshape(X_train.shape[0],), y_train)[0,1]
b = pearson_corr * np.std(y_train) / np.std(X_train)
a = np.mean(y_train) - b * np.mean(X_train)
handmade_result = (a + b * X_test)[:,0]
Run Code Online (Sandbox Code Playgroud)

我希望所有三个都能提供类似的结果,但这是发生的事情.这是一个使用100个箱的可靠性图.

在此输入图像描述

我玩过丢失函数和其他参数,但Keras logreg大致保持这样.可能是什么原因引起了这个问题?

编辑:使用二进制crossentropy不是这里的解决方案,如此图所示(请注意,输入数据在两个图之间已经更改).

在此输入图像描述

gid*_*dim 1

虽然这两种实现都是逻辑回归的一种形式,但存在相当多的差异。虽然两种解决方案都收敛到可比较的最小值(0.75/0.76 ACC),但它们并不相同。

  1. 优化器 - keras 使用 vanille SGD,其中 sklearn 的 LR 基于 liblinear,它实现了信任域牛顿法
  2. 正则化 - sklearn 内置了 L2 正则化
  3. 权重 - 权重是随机初始化的,并且可能是从不同的分布中采样的。