use*_*903 1 machine-learning libsvm cross-validation
我正在使用libsvm进行分类任务.我有10倍交叉验证,其中F1得分为0.80.但是,当我将训练数据集分成两部分时(一部分用于训练,另一部分用于测试,我将其称为保持测试集),F1分数降至0.65.分割比例为.8至.2.
那么,我的问题是,在进行k折交叉验证与保持测试之间是否有任何显着差异?这两种技术中的哪一种会产生一种概括良好的模型?在这两种情况下,我的数据集都会缩放.
存在巨大差异,但精确分析需要大量统计数据.有关深入理解,请参阅Hastie,Tibshirani和Friedman 的"统计学习要素:数据挖掘,推理和预测".
简而言之 :
归档时间: |
|
查看次数: |
2520 次 |
最近记录: |