我最近遇到了tf.nn.sparse_softmax_cross_entropy_with_logits,我无法弄清楚与tf.nn.softmax_cross_entropy_with_logits相比有什么不同.
是训练矢量唯一的区别y
必须是独热编码使用时sparse_softmax_cross_entropy_with_logits
?
阅读API,我找不到任何其他差异softmax_cross_entropy_with_logits
.但是为什么我们需要额外的功能呢?
如果提供单热编码训练数据/向量,不应softmax_cross_entropy_with_logits
产生相同的结果sparse_softmax_cross_entropy_with_logits
吗?