Lin*_*k L 3 caffe tensorflow softmax
在 Caffe 中,其 SoftmaxWithLoss 函数有一个选项可以在计算概率时忽略所有负标签 (-1),以便只有 0 或正标签概率加起来为 1。
Tensorflow softmax loss 是否有类似的功能?
刚刚想出了一种解决方法 --- 我使用 tf.one_hot 在标签索引上创建了一个单热张量(深度设置为标签数)。tf.one_hot 自动将生成的 one_hot 张量中带有 -1 的所有索引清零(形状为 [batch,# of labels])
这使得 softmax 损失(即 tf.nn.softmax_cross_entropy_with_logits)能够“忽略”所有 -1 标签。
| 归档时间: |
|
| 查看次数: |
2828 次 |
| 最近记录: |