标签: tensorboard

Tensorboard-叠加2个图

在张量板中,我想在同一图表上叠加2个图(神经网络的训练和验证损失).

我可以看到2个单独的图,但不是一个有2条叠加曲线的图.否则,我得到一个曲折的情节.

我能怎么做?

neural-network tensorflow tensorboard

5
推荐指数
2
解决办法
1453
查看次数

如何输出张量板数据?

在tensorborad的README.md中,它要求我这样做:

如何从TensorBoard导出数据?

如果您想将数据导出到其他地方可视化(例如iPython Notebook),那也是可能的.您可以直接依赖TensorBoard用于加载数据的基础类:(用于python/summary/event_accumulator.py从单次运行python/summary/event_multiplexer.py加载数据)或(用于从多次运行加载数据,并使其保持有序).这些类加载事件文件组,丢弃TensorFlow崩溃"孤立"的数据,并按标记组织数据.

而且我用它在张量流中的mnist示例所说的那样做.但我无法从原始数据中获取任何事件,而它通常在张量板上显示.

下面是我的代码:

x = EventAccumulator(path="/tmp/tensorflow/mnist/logs/mnist_with_summaries/")
x.Reload()
print(x.Tags())
x.FirstEventTimestamp()
print(x.Tags())
Run Code Online (Sandbox Code Playgroud)

结果如下所示:

{'scalars': [], 'histograms': [], 'run_metadata': [], 'images': [], 'graph': False, 'audio': [], 'meta_graph': False, 'compressedHistograms': []}

我无法从原始数据中获取任何标记或事件.但是,当我打开张量板时.一切都很好看.

python tensorboard

5
推荐指数
1
解决办法
4040
查看次数

TensorFlow 1.0教程中的Cuda问题看起来TF无法找到CUPTI/lib64?

这个问题与SSE AVX等警告无关.我已经将输出包括在内为完整性.问题是一些cuda libs的失败,我认为,最后,机器有一个NVIDA 1070卡,并且有一个Cuda libs,在这个过程的早期使用但是最后还缺少什么?我点了TensorFlow的1.0版本,我还单独下载了repo,以获得最新的教程.本教程专门用于获取所有Tensorboard功能的实例.尝试从repo中的tensorFlow教程运行Minst_with_summaries.py(我将文件从repo复制到工作目录中),我正在使用Anaconda和Python 3.6我得到以下内容:

(py36) tom@tomServal:~/Documents/LearningRepos/Working$ python Minst_with_summaries.py
I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcublas.so.8.0 locally
I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcudnn.so.5 locally
I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcufft.so.8.0 locally
I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcuda.so.1 locally
I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcurand.so.8.0 locally
Extracting /tmp/tensorflow/mnist/input_data/train-images-idx3-ubyte.gz
Extracting /tmp/tensorflow/mnist/input_data/train-labels-idx1-ubyte.gz
Extracting /tmp/tensorflow/mnist/input_data/t10k-images-idx3-ubyte.gz
Extracting /tmp/tensorflow/mnist/input_data/t10k-labels-idx1-ubyte.gz
W tensorflow/core/platform/cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use SSE3 instructions, but these are available on your machine and could speed up …
Run Code Online (Sandbox Code Playgroud)

python tensorflow tensorboard

5
推荐指数
1
解决办法
527
查看次数

在Tensorboard上分析张量流图或.pb文件

我一直在关注“ Android上的Tensorflow”的github存储库。

  1. 我能够使用巴泽勒构建代码,然后导入Android项目到Android Studio中,提到这里
  2. 正如你可以看到这里,构建APK,使用Android工作室,模型文件后/图表都包含在tensorflow/examples/android/assets
  3. 默认情况下,tensorflow_inception_graph.pb并且imagenet_comp_graph_label_strings.txt都包括在内,从而APK是建立被下载inception5文件。

怎么了

  1. 我有一个重新训练的图形(InceptionV3模型,在中提到tensorflow/examples/image_retraining/retrain.py),可以将其放置在android目录中的assets文件夹中并生成一个有效的APK。
  2. 使用默认图形或.pb文件时的推断时间约为500毫秒,而使用retrained.pb或图形时的推断时间约为1400毫秒(在OnePlus3T设备上测试)

请帮我理解

  1. 如何tensorflow_inception_graph.pb在Tensorboard上分析默认值

android-studio tensorflow tensorboard tensor

5
推荐指数
1
解决办法
4544
查看次数

如何通过keras在张量板上的同一张图上同时显示训练损失和验证损失?

我将Tensorflow后端与Keras配合使用来训练CNN,并且使用Tensorboard可视化损失函数和准确性。我想在同一张图中看到训练数据和验证数据的损失函数,但是我只找到了使用Tensorflow而不是通过keras的方法。

有办法吗?

编辑1:我尝试在Regex中编写loss / acc,但没有将两个图表放在一起,而是像这样并排显示了它们:http : //imgur.com/a/oLIcL

我已经添加了我用来登录张量板的内容:

tbCallBack=keras.callbacks.TensorBoard(log_dir='C:\\logs', histogram_freq=0, write_graph=False, write_images=True, embeddings_freq=0, embeddings_layer_names=None, embeddings_metadata=None)

model.fit_generator(train_generator,
                steps_per_epoch=x_train.shape[0] // batch_size,
                epochs=epochs,
validation_data=(x_test, y_test))
Run Code Online (Sandbox Code Playgroud)

keras tensorboard

5
推荐指数
1
解决办法
1347
查看次数

如何在Tensorflow DNNRegressor Estimator模型中解释损失函数?

我正在使用Tensorflow DNNRegressor Estimator模型来制作神经网络。但是调用estimator.train()函数给出的输出如下:

在此处输入图片说明

即我的损失函数在每个步骤中都变化很大。但是据我所知,我的损失函数应该减少而无需迭代。另外,找到随附的Tensorboard Visualization屏幕截图以了解损失功能:

在此处输入图片说明

我无法弄清的疑问是:

  • 是整体损失函数值(到目前为止处理的每个步骤的综合损失)还是该步骤的损失值?
  • 如果是那一步的损失值,那么如何获得整体损失函数的值并查看其趋势,我认为应该随着迭代次数的增加而降低?据我所知,这是我们在训练数据集时应注意的价值。
  • 如果这是总损失值,那么为什么波动那么大?我想念什么吗?

python machine-learning neural-network tensorflow tensorboard

5
推荐指数
1
解决办法
2088
查看次数

如何使用TensorBoard分析结果并减少均方误差

在Tensorflow中,我正在尝试构建一个模型来执行图像超分辨率(即回归任务)并使用TensorBoard分析结果.在训练期间,我发现均方误差(MSE)在大多数时间(甚至从头开始)在100到200之间反弹,并且从未收敛过.我希望将以下变量添加到tf.summary并分析导致此问题的原因.

graph_loss = get_graph_mean_square_error()
tf.summary.scalar('graph_loss', graph_loss)

regularization_loss = tf.add_n([tf.nn.l2_loss(weight) for weight in weights]) * regularization_param
tf.summary.scalar('reg_loss', regularization_loss)

tf.summary.scalar('overall_loss', regularization_loss + graph_loss)

for index in range(len(weights)):
    tf.summary.histogram("weight[%02d]" % index, weights[index])

optimizer = tf.train.AdamOptimizer()
capped_grad_and_vars = [(tf.clip_by_value(grad, -clip_value, clip_value), var) for grad, var in grad_and_vars if grad is not None]
train_optimizer = optimizer.apply_gradients(capped_grad_and_vars, global_step)

for grad, var in grad_and_vars:
    tf.summary.histogram(var.name + '/gradient', grad)

for grad, var in capped_grad_and_vars:
    tf.summary.histogram(var.name + '/capped_gradient', grad)
Run Code Online (Sandbox Code Playgroud)

该模型是具有跳过连接的ResNET,其包含多个[卷积 - >批量标准化 - > ReLU]重复层.在"分发"选项卡中,我可以看到添加了以下模式的多个图形:

  • BatchNorm_ [数字]/beta0/capped_gradient …

machine-learning tensorflow tensorboard

5
推荐指数
1
解决办法
547
查看次数

Tensorboard:从命令行导出CSV文件

有人可以告诉我是否Tensorboard支持从命令行导出CSV文件?我问这个的原因是因为我有很多日志目录,我希望有一个脚本文件来自动化该过程.谢谢.

tensorflow tensorboard

5
推荐指数
1
解决办法
258
查看次数

带Tensorboard投影仪的UMAP

有没有办法使用的可能性UMAPTensorboard投影机。确实,目前,我们只能将其与PCA或T-SNE一起使用。

另外,是否有一个Python库可以允许生成诸如Tensorboard的交互式图?

python tensorflow tensorboard

5
推荐指数
1
解决办法
358
查看次数

ValueError:名称投影仪的重复插件

运行时tensorboard --logdir log_dir出现错误:

Traceback (most recent call last):
  File "/home/user/.local/bin/tensorboard", line 11, in <module>
    sys.exit(run_main())
  File "/home/user/.local/lib/python3.6/site-packages/tensorboard/main.py", line 64, in run_main
    app.run(tensorboard.main, flags_parser=tensorboard.configure)
  File "/home/user/.local/lib/python3.6/site-packages/absl/app.py", line 300, in run
    _run_main(main, args)
  File "/home/user/.local/lib/python3.6/site-packages/absl/app.py", line 251, in _run_main
    sys.exit(main(argv))
  File "/home/user/.local/lib/python3.6/site-packages/tensorboard/program.py", line 228, in main
    server = self._make_server()
  File "/home/user/.local/lib/python3.6/site-packages/tensorboard/program.py", line 309, in _make_server
    self.assets_zip_provider)
  File "/home/user/.local/lib/python3.6/site-packages/tensorboard/backend/application.py", line 161, in standard_tensorboard_wsgi
    reload_task)
  File "/home/user/.local/lib/python3.6/site-packages/tensorboard/backend/application.py", line 194, in TensorBoardWSGIApp
    return TensorBoardWSGI(plugins, path_prefix)
  File "/home/user/.local/lib/python3.6/site-packages/tensorboard/backend/application.py", line 245, in __init__
    raise ValueError('Duplicate …
Run Code Online (Sandbox Code Playgroud)

python tensorflow tensorboard

5
推荐指数
4
解决办法
2658
查看次数