多输出分类器/学习5个目标变量

Pat*_*Muk 3 python machine-learning scikit-learn multilabel-classification data-science

我是机器学习的新手。我已经为一个问题苦苦挣扎了几周了,希望有人可以在这里提供帮助:

我有一个带有一个连续变量的数据集,其余的都是分类的。我设法对分类变量进行编码,并希望构建一个多输出分类器。

这是我的数据集:我的数据集 快照 我具有以下功能:A,B我想预测:C,D,E,F,G

数据集如下所示:A,B,C,D,E,F,G

我花了几天时间在scikitlearn上有关多输出分类器的文档上,但在我看来,这些文档都不是很清楚。

谁能为我指出正确的方向,以找到一些有关如何创建分类器并使用一些示例数据进行预测的示例代码?

预先感谢您PS:我没有使用TensorFlow,感谢您对sklearn的帮助。

Max*_*xim 7

这就是所谓的多任务学习,它基本上是指一个模型,该模型可以学习多个功能,但可以共享(部分或全部)权重。这是相当普遍的,例如一种用于图像识别和检测的模型。您需要定义几个损失函数(它们称为heads)。

下面是tensorflow一个非常简单的例子,可以学习Y1Y2X(从这个职位系列):

# Define the Placeholders
X = tf.placeholder("float", [10, 10], name="X")
Y1 = tf.placeholder("float", [10, 1], name="Y1")
Y2 = tf.placeholder("float", [10, 1], name="Y2")

# Define the weights for the layers
shared_layer_weights = tf.Variable([10,20], name="share_W")
Y1_layer_weights = tf.Variable([20,1], name="share_Y1")
Y2_layer_weights = tf.Variable([20,1], name="share_Y2")

# Construct the Layers with RELU Activations
shared_layer = tf.nn.relu(tf.matmul(X,shared_layer_weights))
Y1_layer = tf.nn.relu(tf.matmul(shared_layer,Y1_layer_weights))
Y2_layer_weights = tf.nn.relu(tf.matmul(shared_layer,Y2_layer_weights))

# Calculate Loss
Y1_Loss = tf.nn.l2_loss(Y1,Y1_layer)
Y2_Loss = tf.nn.l2_loss(Y2,Y2_layer)
Run Code Online (Sandbox Code Playgroud)

如果希望使用纯scikit进行编码,请参见sklearn.multiclasspackage,它们支持多输出分类和多输出回归。这是一个多输出回归的示例:

>>> from sklearn.datasets import make_regression
>>> from sklearn.multioutput import MultiOutputRegressor
>>> from sklearn.ensemble import GradientBoostingRegressor
>>> X, y = make_regression(n_samples=10, n_targets=3, random_state=1)
>>> MultiOutputRegressor(GradientBoostingRegressor(random_state=0)).fit(X, y).predict(X)
array([[-154.75474165, -147.03498585,  -50.03812219],
       [   7.12165031,    5.12914884,  -81.46081961],
       [-187.8948621 , -100.44373091,   13.88978285],
       [-141.62745778,   95.02891072, -191.48204257],
       [  97.03260883,  165.34867495,  139.52003279],
       [ 123.92529176,   21.25719016,   -7.84253   ],
       [-122.25193977,  -85.16443186, -107.12274212],
       [ -30.170388  ,  -94.80956739,   12.16979946],
       [ 140.72667194,  176.50941682,  -17.50447799],
       [ 149.37967282,  -81.15699552,   -5.72850319]])
Run Code Online (Sandbox Code Playgroud)

[更新]

这是执行多目标分类的完整代码。尝试运行它:

import numpy as np
from sklearn.ensemble import RandomForestClassifier
from sklearn.multioutput import MultiOutputClassifier

# The data from your screenshot
#  A      B   C    D    E   F    G
train_data = np.array([
  [5, 133.5, 27, 284, 638, 31, 220],
  [5, 111.9, 27, 285, 702, 36, 230],
  [5,  99.3, 25, 310, 713, 39, 227],
  [5, 102.5, 25, 311, 670, 34, 218],
  [5, 114.8, 25, 312, 685, 34, 222],
])
# These I just made up
test_data_x = np.array([
  [5, 100.0],
  [5, 105.2],
  [5, 102.7],
  [5, 103.5],
  [5, 120.3],
  [5, 132.5],
  [5, 152.5],
])

x = train_data[:, :2]
y = train_data[:, 2:]
forest = RandomForestClassifier(n_estimators=100, random_state=1)
classifier = MultiOutputClassifier(forest, n_jobs=-1)
classifier.fit(x, y)
print classifier.predict(test_data_x)
Run Code Online (Sandbox Code Playgroud)

输出(嗯,对我来说看起来很合理):

[[  25.  310.  713.   39.  227.]
 [  25.  311.  670.   34.  218.]
 [  25.  311.  670.   34.  218.]
 [  25.  311.  670.   34.  218.]
 [  25.  312.  685.   34.  222.]
 [  27.  284.  638.   31.  220.]
 [  27.  284.  638.   31.  220.]]
Run Code Online (Sandbox Code Playgroud)

如果由于某种原因这种方法行不通或无法应用,请更新问题。