确保我做对了:
如果我们单独使用sklearn.metrics.log_loss,即log_loss(y_true,y_pred),它会产生一个正分数 - 分数越小,性能越好.
但是,如果我们使用'neg_log_loss'作为'cross_val_score'中的评分方案,则得分为负 - 得分越大,表现越好.
这是因为评分方案的建立与其他评分方案一致.通常,越高越好,我们否定通常的log_loss与趋势一致.它只是为了这个目的而完成的.这种理解是否正确?
[背景:对于metric.log_loss获得正分数,为'neg_los_loss'获得负分数,并且两者都引用相同的文档页面.]