我正在将LightGBM (Python) 实施到持续学习管道中。我的目标是训练初始模型并使用新的可用数据更新模型(例如每天)。大多数示例加载已经训练好的模型并再次应用 train() :
updated_model = lightgbm.train(params=last_model_params, train_set=new_data, init_model = last_model)
Run Code Online (Sandbox Code Playgroud)
然而,我想知道这实际上是否是在LightGBM库中进行持续学习的正确方法,因为拟合树 ( ) 的数量随着bynum_trees()的每个应用程序而增长。根据我的理解,模型更新应该采用初始模型定义(在给定的一组模型参数下)并对其进行改进,而无需增加模型定义的树数量/大小。train()n_estimators
我发现有关的文档train()并不是特别有帮助。使用 LightGBM 实施持续学习的正确方法是什么?update()refit()