标签: tensorboard

Tensorboard,仅显示最新的tfevents

Tensboard显示了它在给定logdir中找到的所有事件。

如果我多次进行训练(或其他方式),则logdir中将有多个tfevents文件。Tensorboard将在一个看起来很奇怪的图中显示所有合并在一起的变量摘要。

图形

在stdout上,它写如下:

WARNING:tensorflow:Found more than one graph event per run. Overwriting the graph with the newest event.
WARNING:tensorflow:Found more than one "run metadata" event with tag step_0000. Overwriting it with the newest event.
Run Code Online (Sandbox Code Playgroud)

如何使它仅显示最新tfevents文件中的摘要/事件,以便它忽略所有较旧的tfevents文件?

tensorflow tensorboard

6
推荐指数
1
解决办法
1994
查看次数

Inception5h vs Inception V4,什么是5h

我一直在关注“ Android上的Tensorflow ”的github存储库。

链接显示所有的初始模型,但不显示inception5h。对于在github tensorflow演示应用程序使用inception5h,如图所示这里

   new_http_archive(
      name = "inception5h",
      build_file = "models.BUILD",
      url = "https://storage.googleapis.com/download.tensorflow.org/models/inception5h.zip",
      sha256 = "d13569f6a98159de37e92e9c8ec4dae8f674fbf475f69fe6199b514f756d4364"
    )
Run Code Online (Sandbox Code Playgroud)

请解释

1.为什么是inception5h而不是inceptionV5

2.为什么以上模型链接中未列出inception5h

machine-learning protocol-buffers models tensorflow tensorboard

6
推荐指数
1
解决办法
2512
查看次数

tf.variable与tensorflow中的tf.constant

我运行以下代码

 W = tf.Variable(tf.zeros([1, 3]), dtype=tf.float32, name="W")
 B = tf.constant([[1, 2, 3]], dtype=tf.float32, name="B")
 act = tf.add(W, B)
 init = tf.global_variables_initializer()
 with tf.Session() as sess:
     sess.run(init)
     sess.run(act)
     writer = tf.summary.FileWriter("./graphs", sess.graph)
 writer.close()
Run Code Online (Sandbox Code Playgroud)

并用tensorboard验证它:

在此输入图像描述

令我困惑的是read操作和之前的操作,表示为(W).当内部具有所有这些操作节点时,常量B直接指向操作.这是我的问题:Addtf.variable

  1. 什么是(W)操作?常数B是一个常数圆,表示一个常数.椭圆形节点表示操作节点.(W)似乎没有任何操作,但它用相同的椭圆形节点表示?该节点的工作是什么?

  2. Addnode显式读取(W)带有read操作的节点,而不是常量节点B.为什么read变量节点需要?

tensorflow tensorboard

6
推荐指数
1
解决办法
3179
查看次数

无法在jupyter笔记本中显示tensorboard

我在 jupyter 笔记本上使用 TensorFlow。我使用tensorflow没有问题,但是当我尝试使用“show_graph”函数显示tensorboard时(这里引用了它:Simple way to Visual a TensorFlow graph in Jupyter?),它显示的只是一个空白区域。我的同学运行相同的代码,打开张量板没有问题。

我的系统是Win 10。我是jupyter笔记本和tensorflow的新手,所以我不知道如何进行故障排除。

python anaconda jupyter tensorboard

6
推荐指数
0
解决办法
1793
查看次数

执行多次运行时如何使用 Keras 保留纪元号?

对于 Keras 模型,我添加了 TensorBoard 回调来生成稍后可视化的日志文件。

问题是,如果我多次训练模型,它会生成多个日志文件,并且步骤号总是重新启动为 0,而不是继续上次运行的最后一步。

这会导致 TensorBoard 中的图表无法利用(下面的屏幕截图)。

使用原始 Tensorflow,我发现可以通过添加“global_step”张量来跟踪运行之间的纪元数来解决这个问题。

但是我如何使用 Keras 来做到这一点?

Tensorboard 中的图表出现问题

python keras tensorflow tensorboard

6
推荐指数
1
解决办法
1081
查看次数

Tensorflow Keras - AttributeError:层功能没有入站节点

张量流版本:1.11.0

我正在尝试将 TensorBoard 与 Tensorflow keras 模型结合使用进行投影仪可视化。我收到 AttributeError:图层功能没有入站节点。我不确定为什么在下面的简单代码中会出现此错误。我确实用谷歌搜索了错误,但找不到正确的解决方案来修复它。

from os import makedirs
from os.path import exists, join
import tensorflow as tf
mnist = tf.keras.datasets.mnist

import numpy as np


(x_train, y_train),(x_test, y_test) = mnist.load_data()
x_train, x_test = x_train / 255.0, x_test / 255.0

model = tf.keras.models.Sequential([
  tf.keras.layers.Flatten(),
  tf.keras.layers.Dense(512, activation=tf.nn.relu),
  tf.keras.layers.Dropout(0.2),
  tf.keras.layers.Flatten(),
  tf.keras.layers.Dense(10, activation=tf.nn.relu, name='features'),
  tf.keras.layers.Dense(10, activation=tf.nn.softmax)
])
model.compile(optimizer='adam',
              loss='sparse_categorical_crossentropy',
              metrics=['accuracy'])

log_dir = "./logs"
with open(join(log_dir, 'metadata.tsv'), 'w') as f:
    np.savetxt(f, y_test)

from tensorflow.keras.callbacks import TensorBoard

tf_board_callback = TensorBoard(
                            log_dir=log_dir,
                            batch_size=32,
                            embeddings_freq=1, …
Run Code Online (Sandbox Code Playgroud)

python keras tensorflow tensorboard

6
推荐指数
1
解决办法
1万
查看次数

警告:tensorflow:在 TensorFlow 2.0 中,“TensorBoard”回调将忽略“write_grads”

我使用以下代码行使用张量板来可视化 ANN 模型的梯度

  tensorboard_callback = tf.compat.v1.keras.callbacks.TensorBoard(log_dir='./Graph', histogram_freq=1, write_graph = True, write_grads =True, write_images = False)

tensorboard_callback .set_model(model)


%tensorboard --logdir ./Graph
Run Code Online (Sandbox Code Playgroud)

我收到一条警告消息,内容为“警告:tensorflow:回调write_grads将在 TensorFlow 2.0 中被忽略TensorBoard”。

我得到张量板输出,但没有梯度。

在此输入图像描述

可能的原因是什么?

(注:我使用的是2.3.0tensorflow版本)

谢谢。

python neural-network tensorflow tensorboard tf.keras

6
推荐指数
1
解决办法
2328
查看次数

AttributeError:模块“torch.utils”没有属性“tensorboard”

我尝试在 torch.utils 中使用tensorboard,但它说“模块'torch.utils'没有属性'tensorboard'”。我的火炬版本是“1.6.0+cu101”

PS C:\Users\kelekelekle> python
Python 3.7.6 (tags/v3.7.6:43364a7ae0, Dec 19 2019, 01:54:44) [MSC v.1916 64 bit (AMD64)] on win32
Type "help", "copyright", "credits" or "license" for more information.
>>> import torch
>>> print(torch.__version__)
1.6.0+cu101
>>> writer = torch.utils.tensorboard.SummaryWriter()
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
AttributeError: module 'torch.utils' has no attribute 'tensorboard'
>>>
Run Code Online (Sandbox Code Playgroud)

python deep-learning tensorboard pytorch

6
推荐指数
1
解决办法
4654
查看次数

如何解释tensorboardX中的梯度和参数直方图?

我在 ImageNet 数据库上运行了 AlexNet 3 个周期,并在绘制梯度/参数时得到了这个结果。-

Params in epoch 2
Run Code Online (Sandbox Code Playgroud)

Epoch 2 参数

Epoch 2 params distribution
Run Code Online (Sandbox Code Playgroud)

在此输入图像描述

Grads in epoch 2
Run Code Online (Sandbox Code Playgroud)

在此输入图像描述

Epoch 2 grads distribution
Run Code Online (Sandbox Code Playgroud)

在此输入图像描述

Parameters over epochs
Run Code Online (Sandbox Code Playgroud)

在此输入图像描述

Distribution of params over epochs
Run Code Online (Sandbox Code Playgroud)

在此输入图像描述

Params in epoch 2
Run Code Online (Sandbox Code Playgroud)

我有以下问题 -

  1. 这些图表的含义是什么以及如何阅读它们?
  2. 我们是否可以推断模型是否使用这些图在 epoch2 或整个运行过程中学到了任何东西?如果是这样怎么办?
  3. 我们可以使用这些图来调试梯度消失/爆炸吗?(如果您能分享一些这方面的例子,那就太好了。)
  4. 最后,让我为此伤脑筋还有用吗?

提前致谢!

python statistics deep-learning tensorboard pytorch

6
推荐指数
0
解决办法
818
查看次数

冲突的原因是: 用​​户请求的tensorboard==2.1.0 tensorflow 1.15.4依赖于tensorboard&lt;1.16.0 and &gt;=1.15.0

我正在尝试从 git 存储库安装 VIBE 包,并且最初我正在安装它的依赖项。代码位于此处: https: //github.com/mkocabas/VIBE我应该如何解决这个问题?

\n

这是我得到的错误:

\n
(vibe-env) mona@mona:~/research/VIBE$ pip install -r requirements.txt\nRequirement already satisfied: numpy==1.17.5 in /home/mona/anaconda3/envs/vibe-env/lib/python3.7/site-packages (from -r requirements.txt (line 4)) (1.17.5)\nRequirement already satisfied: torchvision==0.5.0 in /home/mona/anaconda3/envs/vibe-env/lib/python3.7/site-packages (from -r requirements.txt (line 19)) (0.5.0)\nCollecting git+https://github.com/mattloper/chumpy.git (from -r requirements.txt (line 24))\n  Cloning https://github.com/mattloper/chumpy.git to /tmp/pip-req-build-vdh2h3jw\nCollecting git+https://github.com/mkocabas/yolov3-pytorch.git (from -r requirements.txt (line 25))\n  Cloning https://github.com/mkocabas/yolov3-pytorch.git to /tmp/pip-req-build-ay_gkil2\nCollecting git+https://github.com/mkocabas/multi-person-tracker.git (from -r requirements.txt (line 26))\n  Cloning https://github.com/mkocabas/multi-person-tracker.git to /tmp/pip-req-build-l9jgk1qb\nRequirement already satisfied: six>=1.11.0 in /home/mona/anaconda3/envs/vibe-env/lib/python3.7/site-packages (from chumpy==0.70->-r requirements.txt (line 24)) (1.15.0)\nCollecting …
Run Code Online (Sandbox Code Playgroud)

python pip tensorflow tensorboard pytorch

6
推荐指数
1
解决办法
4万
查看次数