交叉熵和日志丢失错误有什么区别?

use*_*020 9 classification machine-learning cross-entropy

交叉熵和日志丢失错误有什么区别?两者的公式似乎非常相似.

des*_*aut 10

它们基本相同; 通常,我们对二元分类问题使用术语log loss,对于多类分类的一般情况使用更一般的交叉熵(损失),但即使这种区别也不一致,你经常会发现使用的术语可互换地作为同义词.

来自维基百科的交叉熵条目:

后勤损失有时被称为交叉熵损失.它也被称为对数丢失

来自fast.ai wiki的日志丢失条目:

根据上下文,对数损失和交叉熵略有不同,但在机器学习中,当计算0到1之间的错误率时,它们会解决相同的问题.

ML Cheatsheet:

交叉熵损失或对数损失测量分类模型的性能,该分类模型的输出是介于0和1之间的概率值.