相关疑难解决方法(0)

如何使用 Keras 中的 Adam 优化器在每个时期打印学习率?

因为当您使用自适应优化器时(调用时学习率计划会重置.fit()),在线学习与 Keras 无法很好地配合使用,所以我想看看是否可以手动设置它。然而,为了做到这一点,我需要找出最后一个时期的学习率。

也就是说,我如何打印每个时期的学习率?我想我可以通过回调来做到这一点,但似乎你每次都必须重新计算它,我不知道如何对亚当做到这一点。

我在另一个线程中找到了这个,但它只适用于 SGD:

class SGDLearningRateTracker(Callback):
    def on_epoch_end(self, epoch, logs={}):
        optimizer = self.model.optimizer
        lr = K.eval(optimizer.lr * (1. / (1. + optimizer.decay * optimizer.iterations)))
        print('\nLR: {:.6f}\n'.format(lr))
Run Code Online (Sandbox Code Playgroud)

python machine-learning neural-network deep-learning keras

8
推荐指数
4
解决办法
1万
查看次数