Tensorflow 2.0:Optimizer.minimize('Adam' 对象没有属性 'minimize')

ika*_*men 5 tensorflow tensorflow2.0

对于我的强化学习应用程序,我需要能够应用自定义梯度/最小化不断变化的损失函数。根据文档,使用 Optimizer.minimize() 函数应该是可能的。但是,我的 pip 安装版本似乎根本没有此功能。

我的代码:

from tensorflow.python.keras.optimizers import Adam, SGD
print(tf.version.VERSION)
optim = Adam()
optim.minimize(loss, var_list=network.weights)
Run Code Online (Sandbox Code Playgroud)

输出:

2.0.0-alpha0
Traceback (most recent call last):
  File "/Users/ikkamens/Library/Preferences/PyCharmCE2018.3/scratches/testo.py", line 18, in <module>
    optim.minimize(loss, var_list=network.weights)
AttributeError: 'Adam' object has no attribute 'minimize'
Run Code Online (Sandbox Code Playgroud)

Sha*_*rky 5

其实还是有区别的。如果您打印这两个类,您将看到:

from tensorflow.python.keras.optimizers import Adam

print(Adam)
print(tf.optimizers.Adam)

<class 'tensorflow.python.keras.optimizers.Adam'>
<class 'tensorflow.python.keras.optimizer_v2.adam.Adam'>
Run Code Online (Sandbox Code Playgroud)

所以在第一种情况下,Adam 继承了其他一些类。它旨在用于 Keras 训练循环内,因此,它没有最小化方法。为了确保,让我们获取所有类方法

import inspect
from tensorflow.python.keras.optimizers import Adam

print(inspect.getmembers(Adam(), predicate=inspect.ismethod))
Run Code Online (Sandbox Code Playgroud)

输出显示这个类甚至没有最小化