小编CAR*_*man的帖子

使用带scikit-learn交叉验证的statsmodel估计,是否可能?

我将此问题发布到Cross Validated论坛,后来意识到这可能会在stackoverlfow中找到合适的受众.

我正在寻找一种方法,我可以使用fitpython statsmodel中提供的对象(结果)来提供cross_val_scorescikit-learn cross_validation方法?所附的链接表明它可能是可能的,但我没有成功.

我收到以下错误

estimator应该是一个实现'fit'方法的估计器statsmodels.discrete.discrete_model.BinaryResultsWrapper对象在0x7fa6e801c590被传递

请参阅此链接

python scikit-learn cross-validation statsmodels

13
推荐指数
3
解决办法
3653
查看次数

我可以在pyspark中提取Logistic回归系数的显着值

在我们在训练数据上拟合逻辑回归模型之后,有没有办法获得我们收到的每个系数的显着性水平?

我试图找到一种方法,但无法弄清楚自己.

如果我运行chi sq测试,我想我可能会得到每个功能的显着性水平,但首先不确定我是否可以对所有功能一起运行测试,其次我有数字数据值,所以如果它能给我正确的结果这仍然是一个问题.

现在我使用statsmodel和scikit学习运行建模部分,但当然想知道如何从pySparl ML或MLLib本身获得这些结果

如果有人可以解决一些问题,那将会很有帮助

machine-learning significance logistic-regression apache-spark pyspark

5
推荐指数
1
解决办法
972
查看次数

我们是否应该使用 Huggingface(预)训练一个 BERT 无框模型的小写输入数据?

我们是否应该使用 Huggingface(预)训练一个 BERT 无框模型的小写输入数据?我查看了 Thomas Wolf ( https://github.com/huggingface/transformers/issues/92#issuecomment-444677920 ) 的回复,但不完全确定他是否是这个意思。

如果我们小写文本会发生什么?

nlp deep-learning pytorch huggingface-transformers

3
推荐指数
1
解决办法
1317
查看次数