我正在尝试使用 scikit-learn 中的 DecisionTreeClassifier 计算分类模型的置信区间。
阅读有关交叉验证和置信区间的 scikit-learn 文档(https://scikit-learn.org/dev/modules/cross_validation.html)我发现了下面的代码,它看起来非常简单;但是我不明白为什么上限大于1,准确率怎么可能高于100%?
from sklearn.model_selection import cross_val_score
clf = svm.SVC(kernel='linear', C=1)
scores = cross_val_score(clf, iris.data, iris.target, cv=5)
print("Accuracy: %0.2f (+/- %0.2f)" % (scores.mean(), scores.std() * 2))
Accuracy: 0.98 (+/- 0.03)
Run Code Online (Sandbox Code Playgroud)