TensorFlow将每个输入调用到softmax logit.他们继续将softmax的输入/ logits定义为:"非标定日志概率".
维基百科和其他消息来源说,logit是赔率的对数,是sigmoid/logistic函数的倒数.即,如果sigmoid(x)= p(x),则logit(p(x))= log(p(x)/(1-p(x)))= x.
是否存在TensorFlow调用softmax输入"logits"的数学或常规原因?它们不应该被称为"未缩放的日志概率"吗?
也许TensorFlow只想为二元逻辑回归保留相同的变量名称(使用术语logit是有意义的)和分类逻辑回归...
documentation machine-learning logistic-regression tensorflow softmax