在张量板中,我想在同一图表上叠加2个图(神经网络的训练和验证损失).
我可以看到2个单独的图,但不是一个有2条叠加曲线的图.否则,我得到一个曲折的情节.
我能怎么做?
在tensorborad的README.md中,它要求我这样做:
如果您想将数据导出到其他地方可视化(例如iPython Notebook),那也是可能的.您可以直接依赖TensorBoard用于加载数据的基础类:(用于python/summary/event_accumulator.py从单次运行python/summary/event_multiplexer.py加载数据)或(用于从多次运行加载数据,并使其保持有序).这些类加载事件文件组,丢弃TensorFlow崩溃"孤立"的数据,并按标记组织数据.
而且我用它在张量流中的mnist示例所说的那样做.但我无法从原始数据中获取任何事件,而它通常在张量板上显示.
下面是我的代码:
x = EventAccumulator(path="/tmp/tensorflow/mnist/logs/mnist_with_summaries/")
x.Reload()
print(x.Tags())
x.FirstEventTimestamp()
print(x.Tags())
Run Code Online (Sandbox Code Playgroud)
结果如下所示:
{'scalars': [], 'histograms': [], 'run_metadata': [], 'images': [], 'graph': False, 'audio': [], 'meta_graph': False, 'compressedHistograms': []}
我无法从原始数据中获取任何标记或事件.但是,当我打开张量板时.一切都很好看.
这个问题与SSE AVX等警告无关.我已经将输出包括在内为完整性.问题是一些cuda libs的失败,我认为,最后,机器有一个NVIDA 1070卡,并且有一个Cuda libs,在这个过程的早期使用但是最后还缺少什么?我点了TensorFlow的1.0版本,我还单独下载了repo,以获得最新的教程.本教程专门用于获取所有Tensorboard功能的实例.尝试从repo中的tensorFlow教程运行Minst_with_summaries.py(我将文件从repo复制到工作目录中),我正在使用Anaconda和Python 3.6我得到以下内容:
(py36) tom@tomServal:~/Documents/LearningRepos/Working$ python Minst_with_summaries.py
I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcublas.so.8.0 locally
I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcudnn.so.5 locally
I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcufft.so.8.0 locally
I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcuda.so.1 locally
I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcurand.so.8.0 locally
Extracting /tmp/tensorflow/mnist/input_data/train-images-idx3-ubyte.gz
Extracting /tmp/tensorflow/mnist/input_data/train-labels-idx1-ubyte.gz
Extracting /tmp/tensorflow/mnist/input_data/t10k-images-idx3-ubyte.gz
Extracting /tmp/tensorflow/mnist/input_data/t10k-labels-idx1-ubyte.gz
W tensorflow/core/platform/cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use SSE3 instructions, but these are available on your machine and could speed up …Run Code Online (Sandbox Code Playgroud) 我一直在关注“ Android上的Tensorflow”的github存储库。
tensorflow/examples/android/assets tensorflow_inception_graph.pb并且imagenet_comp_graph_label_strings.txt都包括在内,从而APK是建立被下载inception5文件。怎么了
tensorflow/examples/image_retraining/retrain.py),可以将其放置在android目录中的assets文件夹中并生成一个有效的APK。请帮我理解
tensorflow_inception_graph.pb在Tensorboard上分析默认值我将Tensorflow后端与Keras配合使用来训练CNN,并且使用Tensorboard可视化损失函数和准确性。我想在同一张图中看到训练数据和验证数据的损失函数,但是我只找到了使用Tensorflow而不是通过keras的方法。
有办法吗?
编辑1:我尝试在Regex中编写loss / acc,但没有将两个图表放在一起,而是像这样并排显示了它们:http : //imgur.com/a/oLIcL
我已经添加了我用来登录张量板的内容:
tbCallBack=keras.callbacks.TensorBoard(log_dir='C:\\logs', histogram_freq=0, write_graph=False, write_images=True, embeddings_freq=0, embeddings_layer_names=None, embeddings_metadata=None)
model.fit_generator(train_generator,
steps_per_epoch=x_train.shape[0] // batch_size,
epochs=epochs,
validation_data=(x_test, y_test))
Run Code Online (Sandbox Code Playgroud) 我正在使用Tensorflow DNNRegressor Estimator模型来制作神经网络。但是调用estimator.train()函数给出的输出如下:
即我的损失函数在每个步骤中都变化很大。但是据我所知,我的损失函数应该减少而无需迭代。另外,找到随附的Tensorboard Visualization屏幕截图以了解损失功能:
我无法弄清的疑问是:
python machine-learning neural-network tensorflow tensorboard
在Tensorflow中,我正在尝试构建一个模型来执行图像超分辨率(即回归任务)并使用TensorBoard分析结果.在训练期间,我发现均方误差(MSE)在大多数时间(甚至从头开始)在100到200之间反弹,并且从未收敛过.我希望将以下变量添加到tf.summary并分析导致此问题的原因.
graph_loss = get_graph_mean_square_error()
tf.summary.scalar('graph_loss', graph_loss)
regularization_loss = tf.add_n([tf.nn.l2_loss(weight) for weight in weights]) * regularization_param
tf.summary.scalar('reg_loss', regularization_loss)
tf.summary.scalar('overall_loss', regularization_loss + graph_loss)
for index in range(len(weights)):
tf.summary.histogram("weight[%02d]" % index, weights[index])
optimizer = tf.train.AdamOptimizer()
capped_grad_and_vars = [(tf.clip_by_value(grad, -clip_value, clip_value), var) for grad, var in grad_and_vars if grad is not None]
train_optimizer = optimizer.apply_gradients(capped_grad_and_vars, global_step)
for grad, var in grad_and_vars:
tf.summary.histogram(var.name + '/gradient', grad)
for grad, var in capped_grad_and_vars:
tf.summary.histogram(var.name + '/capped_gradient', grad)
Run Code Online (Sandbox Code Playgroud)
该模型是具有跳过连接的ResNET,其包含多个[卷积 - >批量标准化 - > ReLU]重复层.在"分发"选项卡中,我可以看到添加了以下模式的多个图形:
有人可以告诉我是否Tensorboard支持从命令行导出CSV文件?我问这个的原因是因为我有很多日志目录,我希望有一个脚本文件来自动化该过程.谢谢.
有没有办法使用的可能性UMAP与Tensorboard投影机。确实,目前,我们只能将其与PCA或T-SNE一起使用。
另外,是否有一个Python库可以允许生成诸如Tensorboard的交互式图?
运行时tensorboard --logdir log_dir出现错误:
Traceback (most recent call last):
File "/home/user/.local/bin/tensorboard", line 11, in <module>
sys.exit(run_main())
File "/home/user/.local/lib/python3.6/site-packages/tensorboard/main.py", line 64, in run_main
app.run(tensorboard.main, flags_parser=tensorboard.configure)
File "/home/user/.local/lib/python3.6/site-packages/absl/app.py", line 300, in run
_run_main(main, args)
File "/home/user/.local/lib/python3.6/site-packages/absl/app.py", line 251, in _run_main
sys.exit(main(argv))
File "/home/user/.local/lib/python3.6/site-packages/tensorboard/program.py", line 228, in main
server = self._make_server()
File "/home/user/.local/lib/python3.6/site-packages/tensorboard/program.py", line 309, in _make_server
self.assets_zip_provider)
File "/home/user/.local/lib/python3.6/site-packages/tensorboard/backend/application.py", line 161, in standard_tensorboard_wsgi
reload_task)
File "/home/user/.local/lib/python3.6/site-packages/tensorboard/backend/application.py", line 194, in TensorBoardWSGIApp
return TensorBoardWSGI(plugins, path_prefix)
File "/home/user/.local/lib/python3.6/site-packages/tensorboard/backend/application.py", line 245, in __init__
raise ValueError('Duplicate …Run Code Online (Sandbox Code Playgroud)