One-hot 编码的逻辑回归

Mor*_*nor 6 python regression machine-learning pandas one-hot-encoding

我有一个 Dataframe ( data),其头部如下所示:

          status      datetime    country    amount    city  
601766  received  1.453916e+09    France       4.5     Paris
669244  received  1.454109e+09    Italy        6.9     Naples
Run Code Online (Sandbox Code Playgroud)

我想预测status给定的datetime, country, amountcity

由于status, country, city是字符串,我对它们进行了单热编码:

one_hot = pd.get_dummies(data['country'])
data = data.drop(item, axis=1) # Drop the column as it is now one_hot_encoded
data = data.join(one_hot)
Run Code Online (Sandbox Code Playgroud)

然后我创建一个简单的 LinearRegression 模型并拟合我的数据:

y_data = data['status']
classifier = LinearRegression(n_jobs = -1)
X_train, X_test, y_train, y_test = train_test_split(data, y_data, test_size=0.2)
columns = X_train.columns.tolist()
classifier.fit(X_train[columns], y_train)
Run Code Online (Sandbox Code Playgroud)

但我收到以下错误:

无法将字符串转换为浮点数:'收到'

我觉得我在这里错过了一些东西,我想就如何继续进行一些投入。感谢您阅读到目前为止!

Max*_*axU 5

考虑以下方法:

首先让我们对所有非数字列进行单热编码:

In [220]: from sklearn.preprocessing import LabelEncoder

In [221]: x = df.select_dtypes(exclude=['number']) \
                .apply(LabelEncoder().fit_transform) \
                .join(df.select_dtypes(include=['number']))

In [228]: x
Out[228]:
        status  country  city      datetime  amount
601766       0        0     1  1.453916e+09     4.5
669244       0        1     0  1.454109e+09     6.9
Run Code Online (Sandbox Code Playgroud)

现在我们可以使用LinearRegression分类器:

In [230]: classifier.fit(x.drop('status',1), x['status'])
Out[230]: LinearRegression(copy_X=True, fit_intercept=True, n_jobs=1, normalize=False)
Run Code Online (Sandbox Code Playgroud)

  • 我想补充一点,您的答案部分正确。事实上,它只对字符串进行 LabelEncode,而不是 one_hot 对它们进行编码。这将产生错误的结果,因为某些字符串比其他字符串值“更多”。 (5认同)
  • 如果有人想知道 Mornor 是什么意思,这是因为标签编码将是数值。例如:法国 = 0,意大利 = 1,等等。这意味着有些城市比其他城市更有价值。使用 one-hot 编码,每个城市都具有相同的值:例如:法国 = [1, 0],意大利 = [0,1]。也不要忘记虚拟变量陷阱 https://www.algosome.com/articles/dummy-variable-trap-regression.html。 (2认同)