Keras培训warm_start

Nic*_*ick 5 python machine-learning neural-network scikit-learn keras

是否有可能继续训练Keras估计器,其中包含所有超参数(包括降低学习率)和从先前时期保存的权重,就像在scikit中学习warm_start参数一样?像这样的东西:

estimator = KerasRegressor(build_fn=create_model, epochs=20, batch_size=40, warm_start=True)
Run Code Online (Sandbox Code Playgroud)

具体来说,热启动应该这样做:

warm_start:bool,optional,default False设置为True时,重用上一次调用的解决方案以适合初始化,否则,只需擦除以前的解决方案.

在Keras有类似的东西吗?

Mar*_*jko 6

是的 - 这是可能的.但相当繁琐.您需要使用train_on_batch保留所有模型参数的函数(也包括优化函数).

这很麻烦,因为您需要将数据集划分为自己的批次,并且您也失去了应用Callbacks和使用自动化的可能性progbar.我希望在新Keras版本中将此选项添加到fit方法中.

  • 是.我们正在考虑自己实现它,因为它可能不需要对`Keras`代码进行很多更改. (3认同)