我一直试图找出错误率与这两种模型中的特征数量之间的相关性.我观看了一些视频,视频的创建者说,简单的模型可能比复杂的模型更好.所以我认为我拥有的功能越多,错误率就越大.这在我的工作中并不是真的,当我的功能较少时,错误率就会上升.我不确定我是否做错了,或者视频中的那个人犯了错误.有人可以解释一下吗?我也很好奇功能如何与Logistic回归的错误率相关.
bur*_*urr 26
朴素贝叶斯和Logistic回归是一种"生成 - 判别对",意味着它们具有相同的模型形式(线性分类器),但它们以不同的方式估计参数.
对于特征x和标签y,朴素贝叶斯估计来自训练数据的联合概率p(x,y)= p(y)*p(x | y)(即,构建可以"生成"数据的模型) ,并使用贝叶斯规则来预测新测试实例的p(y | x).另一方面,逻辑回归通过最小化误差函数(其更"描述性")直接从训练数据估计p(y | x).
这些差异会对错误率产生影响:
如果这些功能确实(大部分)是有条件独立的,那么只要有足够的数据实例,这两个模型实际上可能会随着越来越多的功能而改进.当训练集大小相对于特征数量较小时,问题就出现了.在逻辑回归上使用朴素贝叶斯特征参数或正则化方法(如L1/Lasso或L2/Ridge)的引物可以帮助解决这些问题.
| 归档时间: |
|
| 查看次数: |
5134 次 |
| 最近记录: |