小编sal*_*izl的帖子

当我使用 tf.keras.optimizers.schedules.ExponentialDecay 时,如何在 TensorFlow 2.0 中获得 SGD 优化器的当前学习率?

我想在tensorflow2.0的SGD优化器中降低学习率,我使用了这行代码:

lr_schedule = tf.keras.optimizers.schedules.ExponentialDecay(
            initial_learning_rate=self.parameter['learning_rate'],
            decay_steps=(1000), 
            decay_rate=self.parameter['lr_decay']
        )
opt = tf.keras.optimizers.SGD(learning_rate=lr_schedule, momentum=0.9)
Run Code Online (Sandbox Code Playgroud)

但是我不知道我的学习率是否下降了,我如何才能获得我当前的学习率?

python tensorflow2.0

9
推荐指数
2
解决办法
2716
查看次数

如何在 TensorFlow 2.0 中降低 SGD 优化器的学习率?

我想在tensorflow2.0的SGD优化器中降低学习率,我使用了这行代码:tf.keras.optimizers.SGD(learning_rate, decay=lr_decay, momentum=0.9) 但是我不知道我的学习率是否下降了,我怎样才能得到我当前的学习率?

python keras tensorflow2.0

5
推荐指数
1
解决办法
2353
查看次数

标签 统计

python ×2

tensorflow2.0 ×2

keras ×1