dba*_*akr 28 classification machine-learning apache-spark apache-spark-mllib
我工作在一个特定的二元分类问题具有高度不平衡的数据集,我想知道是否有人试图实现特定的技术来处理数据集不平衡(如SMOTE)的分类问题,用放电的MLlib.
我正在使用MLLib的随机森林实现,并且已经尝试了最简单的方法来随机地对较大的类进行采样,但它没有像我预期的那样工作.
如果您对类似问题的体验有任何反馈,我将不胜感激.
谢谢,
Ser*_*ity 50
截至目前,随机森林算法的类权重仍处于开发阶段(见此处)
但是如果您愿意尝试其他分类器 - 此功能已添加到Logistic回归中.
考虑一下我们在数据集中有80%的正数(标签== 1)的情况,因此从理论上讲,我们希望"对样本"进行"欠采样".逻辑损失目标函数应该用较高权重处理负类(标签== 0).
下面是Scala中生成此权重的示例,我们为数据集中的每条记录向数据框添加一个新列:
def balanceDataset(dataset: DataFrame): DataFrame = {
    // Re-balancing (weighting) of records to be used in the logistic loss objective function
    val numNegatives = dataset.filter(dataset("label") === 0).count
    val datasetSize = dataset.count
    val balancingRatio = (datasetSize - numNegatives).toDouble / datasetSize
    val calculateWeights = udf { d: Double =>
      if (d == 0.0) {
        1 * balancingRatio
      }
      else {
        (1 * (1.0 - balancingRatio))
      }
    }
    val weightedDataset = dataset.withColumn("classWeightCol", calculateWeights(dataset("label")))
    weightedDataset
  }
然后,我们创建一个分类如下:
new LogisticRegression().setWeightCol("classWeightCol").setLabelCol("label").setFeaturesCol("features")
有关详细信息,请在此处观看:https://issues.apache.org/jira/browse/SPARK-9610
您应该检查的另一个问题 - 您的功能是否具有您正在尝试预测的标签的"预测能力".在欠采样后仍然具有低精度的情况下,这可能与您的数据集本质上不平衡的事实无关.
我会做一个探索性的数据分析 - 如果分类器没有比随机选择做得好,那么就有可能在功能和类之间没有连接.
过度拟合 - 训练集上的低错误和测试集上的高错误可能表示您使用过于灵活的功能集进行过度拟合.
偏差方差 - 检查您的分类器是否存在高偏差或高偏差问题.
| 归档时间: | 
 | 
| 查看次数: | 16484 次 | 
| 最近记录: |