use*_*821 55 classification weka
我们如何使用朴素贝叶斯解释weka中的分类结果?
如何计算平均值,标准差,重量和和精度?
如何计算kappa统计量,平均绝对误差,均方根误差等?
混淆矩阵的解释是什么?
mic*_*ish 89
下面是一个朴素贝叶斯分类器的一些示例输出,使用10倍交叉验证.那里有很多信息,你应该关注的内容取决于你的应用程序.我将在下面解释一些结果,以帮助您入门.
=== Stratified cross-validation ===
=== Summary ===
Correctly Classified Instances 71 71 %
Incorrectly Classified Instances 29 29 %
Kappa statistic 0.3108
Mean absolute error 0.3333
Root mean squared error 0.4662
Relative absolute error 69.9453 %
Root relative squared error 95.5466 %
Total Number of Instances 100
=== Detailed Accuracy By Class ===
TP Rate FP Rate Precision Recall F-Measure ROC Area Class
0.967 0.692 0.686 0.967 0.803 0.709 0
0.308 0.033 0.857 0.308 0.453 0.708 1
Weighted Avg. 0.71 0.435 0.753 0.71 0.666 0.709
=== Confusion Matrix ===
a b <-- classified as
59 2 | a = 0
27 12 | b = 1
Run Code Online (Sandbox Code Playgroud)
正确和错误分类的实例显示正确和错误分类的测试实例的百分比.原始数字显示在混淆矩阵中,带有a并b表示类标签.这里有100个实例,因此百分比和原始数加起来,aa+ bb= 59 + 12 = 71,ab+ ba= 27 + 2 = 29.
正确分类的实例的百分比通常称为准确度或样本准确度.它有一些缺点作为性能估计(不是机会校正,对类分布不敏感),所以你可能想看一些其他数字.ROC区域或ROC曲线下的区域是我的首选措施.
Kappa是一种机会纠正措施,用于分类和真正的类别之间的一致性.计算方法是将预期的协议从观察到的协议中除去并除以最大可能的协议.大于0的值意味着您的分类器比偶然性更好(它确实应该是!).
错误率用于数字预测而不是分类.在数值预测中,预测不仅正确或错误,误差具有一定的幅度,这些指标反映了这一点.
希望这会让你开始.
Hyb*_*tem 29
要详细阐述michaeltwofish的答案,请注意其余的值:
TP率:真阳性率(正确分类为给定类的实例)
FP率:误报率(错误地归类为给定类别的实例)
精度:真正属于某一类的实例的比例除以归类为该类的总实例
回想一下:分类为给定类别的实例比例除以该类别中的实际总数(相当于TP率)
F-Measure:精确度和召回率的组合度量,计算为2*精度*召回/(精确+召回)
至于ROC面积测量,我同意michaeltwofish这是Weka输出的最重要的值之一."最佳"分类器将使ROC面积值接近1,其中0.5与"随机猜测"相当(类似于0的Kappa统计量).
应该注意,在解释结果时需要考虑数据集的"平衡".不平衡的数据集(其中不成比例的大量实例属于某一类)可能导致高准确率,即使分类器可能不一定特别好.
进一步阅读:
| 归档时间: |
|
| 查看次数: |
76696 次 |
| 最近记录: |