use*_*020 9 classification machine-learning cross-entropy
交叉熵和日志丢失错误有什么区别?两者的公式似乎非常相似.
des*_*aut 10
它们基本相同; 通常,我们对二元分类问题使用术语log loss,对于多类分类的一般情况使用更一般的交叉熵(损失),但即使这种区别也不一致,你经常会发现使用的术语可互换地作为同义词.
来自维基百科的交叉熵条目:
后勤损失有时被称为交叉熵损失.它也被称为对数丢失
根据上下文,对数损失和交叉熵略有不同,但在机器学习中,当计算0到1之间的错误率时,它们会解决相同的问题.
交叉熵损失或对数损失测量分类模型的性能,该分类模型的输出是介于0和1之间的概率值.
| 归档时间: |
|
| 查看次数: |
2719 次 |
| 最近记录: |