我想在tensorflow2.0的SGD优化器中降低学习率,我使用了这行代码:
lr_schedule = tf.keras.optimizers.schedules.ExponentialDecay(
initial_learning_rate=self.parameter['learning_rate'],
decay_steps=(1000),
decay_rate=self.parameter['lr_decay']
)
opt = tf.keras.optimizers.SGD(learning_rate=lr_schedule, momentum=0.9)
Run Code Online (Sandbox Code Playgroud)
但是我不知道我的学习率是否下降了,我如何才能获得我当前的学习率?
我想在tensorflow2.0的SGD优化器中降低学习率,我使用了这行代码:tf.keras.optimizers.SGD(learning_rate, decay=lr_decay, momentum=0.9)
但是我不知道我的学习率是否下降了,我怎样才能得到我当前的学习率?