此数据集的Logistic回归和朴素贝叶斯

pa1*_*eek 1 classification machine-learning dataset data-mining logistic-regression

朴素贝叶斯和Logistic回归都可以对这两个数据集进行完美分类吗?我的理解是,朴素贝叶斯(Naive Bayes)可以,带有复杂项的Logistic回归可以对这些数据集进行分类。如果我错了,请帮忙。

数据集的图像在这里:

在此处输入图片说明

use*_*913 5

让我们在两个与您发布的数据集相似的数据集上运行这两种算法,看看会发生什么...

编辑我发布的先前答案不正确。我忘了解释高斯朴素贝叶斯的差异。(先前的解决方案是针对使用具有固定恒等协方差的高斯的朴素贝叶斯,它给出了线性决策边界)。

事实证明,LR在循环数据集失败,而NB可能成功。两种方法都在矩形数据集成功。

LR决策边界是线性的,而NB边界是二次的(两个轴对齐的具有不同协方差的高斯分布之间的边界)。

应用NB循环数据集可以在大致相同的位置给出两个均值,但具有不同的方差,从而形成大致圆形的决策边界-随着半径的增加,方差高斯的概率高于方差高斯的概率。在这种情况下,内圆上的许多内点被错误地分类。

下面的两个图显示了具有固定方差的高斯NB解。

圆形数据集(身份协方差高斯朴素贝叶斯)

矩形数据集(身份协方差高斯朴素贝叶斯)

在下面的图中,等高线表示NB解的概率等高线。该高斯NB解决方案还学习了各个参数的方差,从而导致了解决方案中轴对齐的协方差。

圆形数据集(高斯朴素贝叶斯-轴对齐协方差)

矩形数据集(高斯朴素贝叶斯-轴对齐协方差)