我将此问题发布到Cross Validated论坛,后来意识到这可能会在stackoverlfow中找到合适的受众.
我正在寻找一种方法,我可以使用fit
python statsmodel中提供的对象(结果)来提供cross_val_score
scikit-learn cross_validation方法?所附的链接表明它可能是可能的,但我没有成功.
我收到以下错误
estimator应该是一个实现'fit'方法的估计器statsmodels.discrete.discrete_model.BinaryResultsWrapper对象在0x7fa6e801c590被传递
在我们在训练数据上拟合逻辑回归模型之后,有没有办法获得我们收到的每个系数的显着性水平?
我试图找到一种方法,但无法弄清楚自己.
如果我运行chi sq测试,我想我可能会得到每个功能的显着性水平,但首先不确定我是否可以对所有功能一起运行测试,其次我有数字数据值,所以如果它能给我正确的结果这仍然是一个问题.
现在我使用statsmodel和scikit学习运行建模部分,但当然想知道如何从pySparl ML或MLLib本身获得这些结果
如果有人可以解决一些问题,那将会很有帮助
machine-learning significance logistic-regression apache-spark pyspark
我们是否应该使用 Huggingface(预)训练一个 BERT 无框模型的小写输入数据?我查看了 Thomas Wolf ( https://github.com/huggingface/transformers/issues/92#issuecomment-444677920 ) 的回复,但不完全确定他是否是这个意思。
如果我们小写文本会发生什么?
apache-spark ×1
nlp ×1
pyspark ×1
python ×1
pytorch ×1
scikit-learn ×1
significance ×1
statsmodels ×1