LightGBM:继续训练模型

Wil*_*ken 6 lightgbm

我正在使用交叉验证训练模型,如下所示:

classifier = lgb.Booster(
    params=params, 
    train_set=lgb_train_set,
)

result = lgb.cv(
    init_model=classifier,
    params=params, 
    train_set=lgb_train_set,
    num_boost_round=1000,
    early_stopping_rounds=20,
    verbose_eval=50,
    shuffle=True
)
Run Code Online (Sandbox Code Playgroud)

我想通过多次运行第二个命令来继续训练模型(可能使用新的训练集或不同的参数),它会继续改进模型。

但是,当我尝试这样做时,很明显模型每次都是从头开始。

有没有不同的方法来做我想要的?

Tar*_*aby 9

可以使用lightgbm.train 的init_model选项解决,它接受两个对象之一

  1. LightGBM 模型的文件名,或
  2. 一个 lightgbm Booster 对象

代码说明:

import numpy as np 
import lightgbm as lgb

data = np.random.rand(1000, 10) # 1000 entities, each contains 10 features
label = np.random.randint(2, size=1000) # binary target
train_data = lgb.Dataset(data, label=label, free_raw_data=False)
params = {}

#Initialize with 10 iterations
gbm_init = lgb.train(params, train_data, num_boost_round = 10)
print("Initial iter# %d" %gbm_init.current_iteration())

# Example of option #1 (pass a file):
gbm_init.save_model('model.txt')
gbm = lgb.train(params, train_data, num_boost_round = 10,
                init_model='model.txt')
print("Option 1 current iter# %d" %gbm.current_iteration())


# Example of option #2 (pass a lightgbm Booster object):
gbm_2 = lgb.train(params, train_data, num_boost_round = 10,
                init_model = gbm_init)
print("Option 2 current iter# %d" %gbm_2.current_iteration())
Run Code Online (Sandbox Code Playgroud)

https://lightgbm.readthedocs.io/en/latest/pythonapi/lightgbm.train.html


Nic*_*ick 1

似乎 lightgbm 不允许将模型实例作为 init_model 传递,因为它只需要文件名:

\n\n
\n

init_model(字符串或 None,可选(默认 = None)) \xe2\x80\x93 用于继续训练的 LightGBM 模型或 Booster 实例的文件名。

\n
\n\n

关联

\n