是否有可能在每个训练步骤中获得目标函数值?

Max*_*axB 5 python machine-learning deep-learning tensorflow

在通常的TensorFlow训练循环中,例如

train_op = tf.train.AdamOptimizer().minimize(cross_entropy)

with tf.Session() as sess:
    for i in range(num_steps):
        # ...
        train_op.run(feed_dict = feed_dict)
Run Code Online (Sandbox Code Playgroud)

train_op.run回报None.

但是,有时收集中间结果很有用,例如目标值或准确度.

添加额外的sess.run调用需要再次进行前向传播,从而增加运行时间:

train_op = tf.train.AdamOptimizer().minimize(cross_entropy)

with tf.Session() as sess:
    for i in range(num_steps):
        # ...
        o, a = sess.run([objective, accuracy], feed_dict = feed_dict)
        train_op.run(feed_dict = feed_dict)
Run Code Online (Sandbox Code Playgroud)

是否可以一次性在TensorFlow中执行此操作?


编辑:

人们建议

sess.run([objective, accuracy, train_op], feed_dict = feed_dict)
Run Code Online (Sandbox Code Playgroud)

但结果取决于列表元素的执行顺序:

[objective, accuracy, train_op]
Run Code Online (Sandbox Code Playgroud)

这似乎是未定义的 - 根据是否使用CUDA,您会得到不同的结果.

P-G*_*-Gn 3

只需将您添加train_op到要评估的节点列表中即可。

o, a, _ = sess.run([objective, accuracy, train_op], feed_dict = feed_dict)
Run Code Online (Sandbox Code Playgroud)

关于训练步骤及其在评估中的顺序,我做了以下小实验:

import tensorflow as tf
x = tf.Variable(0, dtype=tf.float32)
loss = tf.nn.l2_loss(x-1)
train_opt = tf.train.GradientDescentOptimizer(1)
train_op = train_opt.minimize(loss)
init_op = tf.global_variables_initializer()

sess = tf.Session()
sess.run(init_op)
x_val, _, loss_val = sess.run([x, train_op, loss])
# returns x_val = 1.0, loss_val = 0.5
Run Code Online (Sandbox Code Playgroud)

情况比我最初想象的还要混乱。似乎已经给定的是,提取的执行顺序并不取决于它们在列表中各自的位置:x_val并且loss_val无论它们在列表中的位置如何,都将是相同的。

然而,正如 @MaxB 所注意到的,它们的执行顺序并不能得到保证。当在 GPU 上运行上述代码时,x_val设置为 0.0,即初始值。但在CPU上运行时,x_val1.0,即从.train_op

正如上面的实验所示,这种依赖于配置的行为可能仅限于通过训练操作更新的变量,但不能保证它们来自 tf 的文档。

  • 你的例子实际上是一个很好的例子,因为它表明这是 UB:根据 CUDA 或没有 CUDA,你会得到不同的结果!你没注意到这一点吧?:-) (2认同)