LogisticRegression scikit在培训中学习协变量(列)顺序问题

Gle*_*son 5 python python-3.x pandas scikit-learn logistic-regression

由于某些原因,协变量的顺序似乎与LogisticRegressionscikit-learn中的分类器有关,这对我来说似乎很奇怪.我有9个协变量和一个二进制输出,当我改变列的顺序和调用fit()然后调用predict_proba()输出是不同的.下面的玩具示例

logit_model = LogisticRegression(C=1e9, tol=1e-15)
Run Code Online (Sandbox Code Playgroud)

下列

logit_model.fit(df['column_2','column_1'],df['target'])
logit_model.predict_proba(df['column_2','column_1'])

array([[ 0.27387109,  0.72612891] ..])
Run Code Online (Sandbox Code Playgroud)

给出不同的结果:

logit_model.fit(df['column_1','column_2'],df['target'])
logit_model.predict_proba(df['column_1','column_2'])

array([[ 0.26117794,  0.73882206], ..])
Run Code Online (Sandbox Code Playgroud)

这对我来说似乎很令人惊讶,但也许这就是我对算法内部和拟合方法缺乏了解.

我错过了什么?

编辑:这是完整的代码和数据

数据:https://s3-us-west-2.amazonaws.com/gjt-personal/test_model.csv

import pandas as pd
from sklearn.linear_model import LogisticRegression

df = pd.read_csv('test_model.csv',index_col=False)

columns1 =['col_1','col_2','col_3','col_4','col_5','col_6','col_7','col_8','col_9']
columns2 =['col_2','col_1','col_3','col_4','col_5','col_6','col_7','col_8','col_9']

logit_model = LogisticRegression(C=1e9, tol=1e-15)

logit_model.fit(df[columns1],df['target'])
logit_model.predict_proba(df[columns1])

logit_model.fit(df[columns2],df['target'])
logit_model.predict_proba(df[columns2])
Run Code Online (Sandbox Code Playgroud)

原来与之相关,tol=1e-15因为这会产生不同的结果.

LogisticRegression(C=1e9, tol=1e-15)
Run Code Online (Sandbox Code Playgroud)

但是这给出了相同的结果.

LogisticRegression(C=1e9)
Run Code Online (Sandbox Code Playgroud)

Grr*_*Grr 1

感谢您添加示例数据。

更深入地查看您的数据,它显然不是标准化的。如果您将 a 应用于StandardScaler数据集并再次尝试拟合,您会发现预测差异消失了。

虽然这个结果至少是一致的,但它仍然令人不安,因为它引发了LineSearchWarningConvergenceWarning。对此我想说,你们的容忍度确实很低1e-151e9鉴于您应用了非常高的正则化惩罚率 ( ),降低tol到默认值1e-4实际上不会产生任何影响。这使得模型能够正确收敛并且仍然产生相同的结果(在更快的运行时间内)。

我的完整流程如下所示:

import numpy as np
from sklearn.preprocessing import StandardScaler
from sklearn.linear_model import LogisticRegression

ss = StandardScaler()
cols1 = np.arange(9)
cols2 = np.array([1,0,2,3,4,5,6,7,8])
X = ss.fit_transform(df.drop('target', axis=1))

lr = LogisticRegression(solver='newton-cg', tol=1e-4, C=1e9)
lr.fit(X[:, cols1], df['target'])
preds_1 = lr.predict_proba(X[:, cols1])

lr.fit(X[:, cols2], df['target'])
preds_2 = lr.predict_proba(X[:, cols2])

preds_1 
array([[  0.00000000e+00,   1.00000000e+00],
       [  0.00000000e+00,   1.00000000e+00],
       [  0.00000000e+00,   1.00000000e+00],
       ...,
       [  1.00000000e+00,   9.09277801e-31],
       [  1.00000000e+00,   3.52079327e-35],
       [  1.00000000e+00,   5.99607407e-30]])

preds_2
array([[  0.00000000e+00,   1.00000000e+00],
       [  0.00000000e+00,   1.00000000e+00],
       [  0.00000000e+00,   1.00000000e+00],
       ...,
       [  1.00000000e+00,   9.09277801e-31],
       [  1.00000000e+00,   3.52079327e-35],
       [  1.00000000e+00,   5.99607407e-30]])
Run Code Online (Sandbox Code Playgroud)

该断言preds_1 == preds_2将失败,但每个值的差异约为 1e-40+,我想说这远远超出了任何合理的显着性水平。