如何在 PyTorch 中使用具有焦点损失的类权重用于多类分类的不平衡数据集

Des*_*wal 5 python machine-learning neural-network deep-learning pytorch

我正在研究语言任务的多类分类(4 个类),我正在使用 BERT 模型进行分类任务。我正在关注这个博客作为参考我的 BERT Fine Tuned 模型返回nn.LogSoftmax(dim=1).

我的数据非常不平衡,所以我曾经sklearn.utils.class_weight.compute_class_weight计算类的权重并使用损失中的权重。

class_weights = compute_class_weight('balanced', np.unique(train_labels), train_labels)
weights= torch.tensor(class_weights,dtype=torch.float)
cross_entropy  = nn.NLLLoss(weight=weights) 

Run Code Online (Sandbox Code Playgroud)

我的结果不太好,所以我想到了实验 Focal Loss并有一个关于焦点损失的代码。

class FocalLoss(nn.Module):
  def __init__(self, alpha=1, gamma=2, logits=False, reduce=True):
    super(FocalLoss, self).__init__()
    self.alpha = alpha
    self.gamma = gamma
    self.logits = logits
    self.reduce = reduce

  def forward(self, inputs, targets):
    BCE_loss = nn.CrossEntropyLoss()(inputs, targets)

    pt = torch.exp(-BCE_loss)
    F_loss = self.alpha * (1-pt)**self.gamma * BCE_loss

    if self.reduce:
      return torch.mean(F_loss)
    else:
      return F_loss
Run Code Online (Sandbox Code Playgroud)

我现在有3个问题。首先也是最重要的是

  1. 我应该使用带有焦点损失的类权重吗?
  2. 如果我必须在这个里面实现权重Focal Loss,我可以weights在里面使用参数吗 nn.CrossEntropyLoss()
  3. 如果这个工具不正确,那么这个工具的正确代码应该是什么,包括权重(如果可能)

小智 4

您可能会通过以下方式找到问题的答案:

  1. 焦点损失自动处理类别不平衡,因此焦点损失不需要权重。alpha 和 gamma 因子处理焦点损失方程中的类别不平衡。
  2. 不需要额外的权重,因为焦点损失使用 alpha 和 gamma 调节因子来处理它们
  3. 根据焦点损失公式,您提到的实现是正确的,但我在使我的模型与此版本收敛时遇到了麻烦,因此,我使用了mmdetection 框架中的以下实现
    pred_sigmoid = pred.sigmoid()
    target = target.type_as(pred)
    pt = (1 - pred_sigmoid) * target + pred_sigmoid * (1 - target)
    focal_weight = (alpha * target + (1 - alpha) *
                    (1 - target)) * pt.pow(gamma)
    loss = F.binary_cross_entropy_with_logits(
        pred, target, reduction='none') * focal_weight
    loss = weight_reduce_loss(loss, weight, reduction, avg_factor)
    return loss
Run Code Online (Sandbox Code Playgroud)

您还可以尝试另一个可用的焦点损失版本

  • 假设是softmax?它的多类别 (3认同)