是不是因为adam优化器自己改变了学习率。我收到一条错误消息,说“正在尝试使用未初始化的值 Adam_1/lr”,我想使用 ReduceLRonPlateau 没有意义,因为 Adam 会自动改变学习率。无论如何,我已经更新了代码更新:代码:
from keras.optimizers import Adam
model.compile(optimizer='adam',loss='mse')
callback_reduce_lr=ReduceLROnPlateau(monitor='val_loss',
factor=0.1,
min_lr=1e-4,
patience=0,
verbose=1
)
model.fit(xTrain,yTrain,epochs=100,batch_size=10,validation_data=(xTest,yTest),verbose=2,callbacks=[callback_reduce_lr])
Run Code Online (Sandbox Code Playgroud)
错误://尝试使用未初始化的值 Adam_1/lr
我在某处读到在使用 ReduceLROnPlateau 时初始化 adam 不起作用,我也尝试初始化权重,但我遇到了同样的错误