lau*_*ent 52

维基百科上有一个非常好的例子:

简单来说,朴素贝叶斯分类器假定在给定类变量的情况下,类的特定特征的存在(或不存在)与任何其他特征的存在(或不存在)无关.例如,如果果实是红色的,圆形的,直径约4英寸,果实可以被认为是苹果.即使这些特征相互依赖或者存在其他特征,一个朴素的贝叶斯分类器也会考虑所有的这些属性独立地促成了这种水果是苹果的概率.

基本上,它是"天真的",因为它做出的假设可能会或可能不会是正确的.

  • 维基百科的文章正确地解释了它,但我不同意"它做出的假设可能会或可能不会证明是正确的".通过适量的训练数据,可以很好地过滤掉不相关的参数."天真"部分是不考虑参数之间的依赖性,因此可能必须查看冗余数据. (5认同)

小智 11

如果您的数据由特征向量X = {x1,x2,... x10}和您的类标签Y = {y1,y2,.. y5}组成.因此,贝叶斯分类器将正确的类标签标识为最大化以下公式的类标签:

P(y/X)= P(X/y)*P(y)= P(x1,x2,... x10/y)*P(y)

因此,它仍然不是天真的.然而,很难计算P(x1,x2,... x10/Y),因此我们假设这些特征是独立的,这就是我们所说的朴素假设,因此,我们最终得到以下公式

P(y/X)= P(x1/y)*P(x2/y)*... P(x10/y)*P(y)


小智 5

之所以称为天真,是因为它假设所有属性都是相互独立的。这个假设就是为什么它被称为天真,因为在许多现实世界中这并不适合。尽管如此,分类器在许多实际情况下仍能很好地工作,并且在某些情况下(尽管不是全部)具有与中立网络和SVM相当的性能。