svmlight警告:​​在KT条件下放松epsilon

del*_*unt 3 machine-learning svm

我正在尝试使用Svmlight学习数据集.我总是在优化过程中看到以下警告.

WARNING: Relaxing epsilon on KT-Conditions (0.010000).
.....................................................
WARNING: Relaxing epsilon on KT-Conditions (0.100000).
.....................................................
WARNING: Relaxing epsilon on KT-Conditions (1.000000).
.....................................................
WARNING: Relaxing epsilon on KT-Conditions (10.00000).
....................................................
Run Code Online (Sandbox Code Playgroud)

这很重要,它意味着什么?目前培训不成功.它可以与此警告相关吗?谢谢.

kar*_*enu 7

KT条件是SVM核心优化问题的一部分.如果没有详细了解理论,那么有一系列条件会在您获得最佳解决方案时成为现实.然而,经历足够的迭代以使KT条件完全正确需要更长的时间,而不仅仅是在真实的espilon(非常小的数量)内使它们成真.基本上而不是说A必须等于B,我们说A必须等于+或 - epsilon中的B. 研究发现,这在实践中也同样适用于花费额外时间来完全正确地获得条件.

SVM Light首先尝试使用非常小的epsilon,当它无法解决这个问题时,它通过使其变大来试图找到一个来放松epsilon,但很明显,如果问题不可解决,它会在决定之前尝试几次是不可解决的.

所以我会说警告是因为你的问题不可解决,而不是相反.