张量流-softmax忽略负标签(就像caffe一样)

Lin*_*k L 3 caffe tensorflow softmax

在 Caffe 中,其 SoftmaxWithLoss 函数有一个选项可以在计算概率时忽略所有负标签 (-1),以便只有 0 或正标签概率加起来为 1。

Tensorflow softmax loss 是否有类似的功能?

Lin*_*k L 5

刚刚想出了一种解决方法 --- 我使用 tf.one_hot 在标签索引上创建了一个单热张量(深度设置为标签数)。tf.one_hot 自动将生成的 one_hot 张量中带有 -1 的所有索引清零(形状为 [batch,# of labels])

这使得 softmax 损失(即 tf.nn.softmax_cross_entropy_with_logits)能够“忽略”所有 -1 标签。