如何在tf.layers中使用张量板?

Mal*_*rec 4 tensorflow tensorboard

由于没有明确定义权重,我如何将它们传递给摘要编写器?

举个例子:

conv1 = tf.layers.conv2d(
    tf.reshape(X,[FLAGS.batch,3,160,320]),
    filters = 16,
    kernel_size = (8,8),
    strides=(4, 4),
    padding='same',
    kernel_initializer=tf.contrib.layers.xavier_initializer(),
    bias_initializer=tf.zeros_initializer(),
    kernel_regularizer=None,
    name = 'conv1',
    activation = tf.nn.elu
    )
Run Code Online (Sandbox Code Playgroud)

=>

summarize_tensor(
    ??????
)
Run Code Online (Sandbox Code Playgroud)

谢谢!

Joh*_*ohn 8

虽然Da Tong的答案已经完成,但我花了一些时间才意识到如何使用它.为了节省其他初学者的时间,您需要在代码中添加以下内容,以将所有可训练变量添加到tensorboard摘要中:

for var in tf.trainable_variables():
    tf.summary.histogram(var.name, var)
merged_summary = tf.summary.merge_all()
Run Code Online (Sandbox Code Playgroud)


Da *_*ong 5

这取决于您要在 TensorBoard 中记录的内容。如果你想把每个变量都放到 TensorBoard 中,调用tf.all_variables()ortf.trainable_variables()会给你所有的变量。请注意, tf.layers.conv2d 只是创建 Conv2D 实例并调用它的 apply 方法的包装器。你可以像这样解开它:

conv1_layer = tf.layers.Conv2D(
    filters = 16,
    kernel_size = (8,8),
    strides=(4, 4),
    padding='same',
    kernel_initializer=tf.contrib.layers.xavier_initializer(),
    bias_initializer=tf.zeros_initializer(),
    kernel_regularizer=None,
    name = 'conv1',
    activation = tf.nn.elu
)

conv1 = conv1_layer.apply(tf.reshape(X,[FLAGS.batch,3,160,320]))
Run Code Online (Sandbox Code Playgroud)

然后您可以使用conv1_layer.kernel访问内核权重。