小编Nli*_*ind的帖子

LightGBM中的交叉验证

在阅读了LightGBM关于交叉验证的文档之后,我希望这个社区能够阐明交叉验证结果并改进我们使用LightGBM的预测.我们如何使用字典输出lightgbm.cv来改进我们的预测?

这是一个例子 - 我们使用下面的代码训练我们的cv模型:

cv_mod = lgb.cv(params, 
                d_train, 
                500, 
                nfold = 10, 
                early_stopping_rounds = 25,
                stratified = True)
Run Code Online (Sandbox Code Playgroud)

我们如何使用从上面代码的最佳迭代中找到的参数来预测输出?在这种情况下,cv_mod没有类似的"预测"方法lightgbm.train,并且字典输出lightgbm.cv在使用时会抛出错误lightgbm.train.predict(..., pred_parameters = cv_mod).

我错过了一个重要的转型步骤吗?

python machine-learning cross-validation kaggle lightgbm

13
推荐指数
2
解决办法
8546
查看次数