标签: tensorboard

如何在 TensorBoard 中显示每个节点的内存?

在另一个问题中,有人展示了他的 TensorBoard 的屏幕截图,显示了每个节点的内存使用情况:

在此处输入图片说明

我在 Tensorboard 的实验中从未见过这些。我所做的就是打电话

writer = tf.summary.FileWriter('/tmp/tensorboard', sess.graph)
Run Code Online (Sandbox Code Playgroud)

之后sess.run()。也许我需要添加一些“摘要”来记录内存使用情况?

tensorflow tensorboard

5
推荐指数
1
解决办法
2369
查看次数

TensorBoard --logdir="path/to/log"(不能分配给操作员)

我写了我的第一个 tensorflow 代码,我试图用 tensorboard 将它可视化,但我撞到了很多其他人似乎都在撞的墙:(语法错误:无法分配给运算符)

尝试运行时:(tensorboard --logdir=path/to/logs/directory)

我在任何网站上都找不到任何可以解决此问题的帖子。为了澄清起见,这些是我看过的线程的例子,我相信它们涵盖了我迄今为止尝试过的东西,但我发现许多线程只是空的。

张量板显示语法错误:无法分配给运算符

在 tensorboard 中创建日志目录

Tensorboard SyntaxError:语法无效

https://github.com/tensorflow/tensorflow/issues/3688

但我认为这是一个更深层次的问题,因为大量缺乏建议,而且我在尝试解决这个问题时使用 tensorboard、tensorflow/tensorboard 观看的所有视频中,没有视频甚至暗示这一步是可以的导致错误,这意味着它不是一个简单/常见的错误。任何关于我可以在哪里寻找建议的帮助、建议甚至建议,我都将不胜感激。

编辑:我仍然在这里,我找到了一个 tensorflow 的示例文件,该文件旨在运行,这样您就可以在不编写任何代码的情况下看到 tensorboard 并且它提供了准确的代码来输入终端,尽管我做了,但它仍然给我同样的错误注意一件事,这是代码“tensorboard --logdir=/tmp/tensorflow/mnist”但是如果我运行它,由于第一个正斜杠,我会收到语法错误,如果我删除它,我会得到原始的“无法分配给操作员”错误。

python syntax-error tensorflow tensorboard

5
推荐指数
1
解决办法
1万
查看次数

TensorBoard 图像的选项卡仅显示黑色或灰色方块

所以我在谷歌 Colab 的笔记本上运行 TensorBoard,当我检查图像选项卡时,我得到的只是每一层的一些黑色或灰色方块: 在此处输入图片说明 为什么我得到这些类型的图像而不是正确的图像?我唯一能想到的是,我通过这种方法在 Google colab 上使用 TensorBoard,这可能会搞砸一些事情。

这是我使用的代码:

tensorboard = TensorBoard(
    log_dir=r'./logs/{}'.format('main_model'),
    write_graph=True,
    write_grads=True,
    histogram_freq=1,
    write_images=True,
)
Run Code Online (Sandbox Code Playgroud)

classification conv-neural-network keras tensorflow tensorboard

5
推荐指数
0
解决办法
491
查看次数

Tensorboard 多图只显示一个程序

当运行一个 mnist 分类程序以在 tensorboard 中查看时,它会显示多个图,即使只有一个图。我收到错误消息:

错误信息

图表如下所示:

图形图像

tensorboard

5
推荐指数
1
解决办法
2155
查看次数

如何使用python在Tensorboard上显示模型的权重和偏差

我创建了以下用于训练的模型,并希望在 Tensorboard 上将其可视化:

## Basic Cell LSTM tensorflow

index_in_epoch = 0;
perm_array  = np.arange(x_train.shape[0])
np.random.shuffle(perm_array)

# function to get the next batch
def get_next_batch(batch_size):
    global index_in_epoch, x_train, perm_array   
    start = index_in_epoch
    index_in_epoch += batch_size

    if index_in_epoch > x_train.shape[0]:
        np.random.shuffle(perm_array) # shuffle permutation array
        start = 0 # start next epoch
        index_in_epoch = batch_size

    end = index_in_epoch
    return x_train[perm_array[start:end]], y_train[perm_array[start:end]]

# parameters
n_steps = seq_len-1 
n_inputs = 4 
n_neurons = 200 
n_outputs = 4
n_layers = 2
learning_rate = 0.001
batch_size …
Run Code Online (Sandbox Code Playgroud)

python python-3.x tensorflow tensorboard

5
推荐指数
1
解决办法
3293
查看次数

为什么与 rsync 一起使用时 Tensorboard 不刷新?

我正在远程机器上运行 tensorflow 实验,不断写入同一个events.out.tfevents.xxx文件。我希望 tensorboard 每分钟左右自动刷新一次,显示新日志。当使用 sshfs 在我的笔记本电脑上安装远程机器并使用安装的目录运行 tensorboard 时,这确实有效。

但是,当使用 rsync 复制文件并在本地文件上运行 tensorboard 时,tensorboard 永远不会刷新,我必须重新启动它才能获得更新。

这是我的 rsync 命令:

rsync -aP --del -e ssh server_name:folder_on_server local_folder --exclude='*checkpoints*' --exclude='*.json' --exclude='*.DS_Store'
Run Code Online (Sandbox Code Playgroud)

任何帮助将不胜感激!

rsync tensorflow tensorboard

5
推荐指数
1
解决办法
605
查看次数

为什么 TensorBoard 摘要没有更新?

我使用带有 pytorch1.1 的 tensorboard 来记录损失值。

writer.add_scalar("loss", loss.item(), global_step)在每个 for- 循环体中使用。

但是,在训练处理期间绘图图不会更新。

每次想看到最新的损失,都得重启tensorboard服务器。

代码在这里

import torch
import torch.nn as nn
import torch.nn.functional as F
import torchvision
from torch.utils.tensorboard import SummaryWriter
from torchvision import datasets, transforms

# Writer will output to ./runs/ directory by default
writer = SummaryWriter()

transform = transforms.Compose(
    [transforms.ToTensor(), transforms.Normalize((0.5,), (0.5,))]
)
trainset = datasets.MNIST("mnist_train", train=True, download=True, transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=64, shuffle=True)
model = torchvision.models.resnet50(False)
# Have ResNet model take in grayscale rather than RGB
model.conv1 …
Run Code Online (Sandbox Code Playgroud)

tensorflow tensorboard pytorch

5
推荐指数
2
解决办法
5169
查看次数

为什么在使用张量板时我们需要 add_graph() 的第二个参数?

众所周知, 有两个参数add_graph(),第一个参数是我们想要可视化的模型对象,第二个参数只是模型的输入。输入可以很随意,即我们可以简单地随机生成一个具有我们想要的形状的输入并将其提供给add_graph()。那么将输入作为参数有什么意义呢?在我看来,这个参数只提供了一个输入张量的形状信息,但是我们可以直接从模型定义中得到这个信息,对吧?而且无论我们输入什么输入add_graph(),tensorboard 打印的计算图总是相同的。我真的很困惑。

python tensorflow tensorboard pytorch

5
推荐指数
0
解决办法
223
查看次数

tensorflow2 错误 - 无法在函数调用 tf.summary.trace_export 中创建插件/配置文件/目录

使用 tensorflow2,我尝试使用函数调用 tf.summary.trace_export() 记录 tensorflow 执行并在 tensorboard 图中查看它。但是,在调用时tf.summary.trace_export(name="my_func_trace", step=0, profiler_outdir=logdir),错误为

tensorflow.python.framework.errors_impl.NotFoundError: Failed to create a directory: logs/func/20191105-014756\plugins\profile\2019-11-05_01-47-57; No such file or directory
Run Code Online (Sandbox Code Playgroud)

除了使用创建文件编写器之外,我是否需要手动创建 /plugin/profile/

stamp = datetime.now().strftime("%Y%m%d-%H%M%S")
logdir = 'logs/func/%s' % stamp
writer = tf.summary.create_file_writer(logdir)
Run Code Online (Sandbox Code Playgroud)

当我尝试执行 tensorflow.org ( https://www.tensorflow.org/tensorboard/graphs#graphs_of_tffunctions ) 中给出的示例时,也会出现同样的错误

这是我的 tensorflow 简单代码:

import tensorflow as tf
from datetime import datetime

stamp = datetime.now().strftime("%Y%m%d-%H%M%S")
logdir = './logs/tensor-constants/%s' % stamp
writer = tf.summary.create_file_writer(logdir)

a = tf.constant(1, dtype=tf.int32, shape=(), name='a')
b = tf.constant(2, dtype=tf.int32, shape=(), name='b')

tf.summary.trace_on(graph=True, profiler=True)

add …
Run Code Online (Sandbox Code Playgroud)

python tensorboard tensorflow2.0

5
推荐指数
1
解决办法
517
查看次数

在 TensorFlow 2.0 中修改 TensorBoard

我正在关注Sentdex 的 DQN 教程。我一直在尝试在 TF 2.0 中重写自定义 TensorBoard。重点是在文件中添加**stats,例如:{'reward_avg': -99.0, 'reward_min': -200, 'reward_max': 2, 'epsilon': 1} 原代码:

class ModifiedTensorBoard(TensorBoard):
    def __init__(self, **kwargs):
        super().__init__(**kwargs)
        self.step = 1
        self.writer = tf.summary.FileWriter(self.log_dir)

    # Custom method for saving own metrics
    # Creates writer, writes custom metrics and closes writer
    def update_stats(self, **stats):
        self._write_logs(stats, self.step)
Run Code Online (Sandbox Code Playgroud)

我的尝试:

def update_stats(self, **stats):
    for name, value in stats.items():
        with self.writer.as_default():
            tf.summary.scalar(name, value, self.step)
Run Code Online (Sandbox Code Playgroud)

这样我得到: TypeError: unsupported operand type(s) for +: 'ModifiedTensorBoard' and 'list'

tensorboard tensorflow2.0

5
推荐指数
1
解决办法
809
查看次数