使用我自己的笔记本电脑在实验室的远程服务器上运行Tensorflow
我用过tensorboard --logdir=./log尝试查看运行结果的曲线
我有:
Starting TensorBoard on port 6006
(You can navigate to http://0.0.0.0:6006)
Run Code Online (Sandbox Code Playgroud)
然后我尝试在浏览器中连接它,但它失败了......
有谁知道如何配置,以便在我自己的笔记本电脑上查看远程服务器的张量板?
我开始学习如何使用TensorFlow进行机器学习.并且发现docker非常方便将TensorFlow部署到我的机器上.但是,我找到的示例不适用于我的目标设置.这是
在ubuntu16.04操作系统下,使用nvidia-docker一起托管jupyter和tensorboard服务(可以是两个容器或一个容器有两个服务).从jupyter创建的文件应该对主机操作系统可见.
Jupyter容器
nvidia-docker run \
--name jupyter \
-d \
-v $(pwd)/notebooks:/root/notebooks \
-v $(pwd)/logs:/root/logs \
-e "PASSWORD=*****" \
-p 8888:8888 \
tensorflow/tensorflow:latest-gpu
Run Code Online (Sandbox Code Playgroud)
Tensorboard容器
nvidia-docker run \
--name tensorboard \
-d \
-v $(pwd)/logs:/root/logs \
-p 6006:6006 \
tensorflow/tensorflow:latest-gpu \
tensorboard --logdir /root/logs
Run Code Online (Sandbox Code Playgroud)
我试图将logs文件夹挂载到两个容器,让Tensorboard访问jupyter的结果.但是山似乎确实有效.当我在带有notebooks文件夹的jupyter容器中创建新文件时,主机文件夹$(pwd)/ notebooks什么都没有出现.
我还按照Nvidia Docker,Jupyter Notebook和Tensorflow GPU中的说明进行操作
nvidia-docker run -d -e PASSWORD='winrar' -p 8888:8888 -p 6006:6006 gcr.io/tensorflow/tensorflow:latest-gpu-py3
Run Code Online (Sandbox Code Playgroud)
只有Jupyter工作,张量板无法从6006端口到达.
我想在TensorBoard中记录一些任意字符串.
我知道如何为任意标量做到这一点:
from tensorflow.core.framework import summary_pb2
value = summary_pb2.Summary.Value(tag='Accuracy', simple_value=0.95)
my_summary = summary_pb2.Summary(value=[value])
summary_writer = tf.summary.FileWriter()
summary_writer.add_summary(summary)
Run Code Online (Sandbox Code Playgroud)
但是对于任意文本摘要,如何做同样的事情呢?
像(不存在)的东西:
value = summary_pb2.Summary.Text(tag='MyTag', str='Arbitrary text come here')
Run Code Online (Sandbox Code Playgroud)
UPD:请注意,我提供了一个如何在不调用的情况下创建任意标量摘要的示例session.run(...).我希望能够为文本做到这一点.
我想“转储”张量板直方图并通过 matplotlib 绘制它们。我会有更多的科学论文吸引人的情节。
我设法使用tf.train.summary_iterator并转储了我想转储的直方图(tensorflow.core.framework.summary_pb2.HistogramProto对象)来破解摘要文件。通过这样做并实现 java 脚本代码对数据的作用(https://github.com/tensorflow/tensorboard/blob/c2fe054231fe77f3a5b05dbc519f713d2e738d1c/tensorboard/plugins/histogram/tf_histogram_dashboard/histogram1 managed to Ito4.ts)#L得到与张量板图相似(相同趋势)的东西,但不是完全相同的图。
我可以对此有所了解吗?
谢谢
我正在使用带有 ray/rllib 框架的深度神经网络进行强化学习。我正在写 TensorFlow 的事件。有时 redis-server 失败,训练会停止。重新启动后,将创建一个新的 tfevent 文件。这导致张量板中有许多不同的颜色。
有没有办法合并这些文件或告诉 TensorBoard 在图中给它们相同的颜色?
这是多个图形的示例输出,它表明对于一个实验,张量板使用了多种颜色。
我正在尝试使用 TF2.0 (Beta) 来可视化 tf.data.Datasets 的性能。我找到了有关如何在旧版 tensorflow 中使用分析器的示例。如何在 TF2.0 中进行分析?我可以使用 tf.compat.v1,但过程似乎并不简单。
我想测量内存消耗(设备放置明智)和时间线。
下面的示例解释了使用 TF1.x 的分析 我可以使用 TensorFlow 测量单个操作的执行时间吗?
在 TF1 中,我可以summary_iterator用来读取摘要文件。但是现在,它会抛出警告
WARNING:tensorflow: tf_record_iterator (from tensorflow.python.lib.io.tf_record) is deprecated and will be removed in a future version.
Instructions for updating:
Use eager execution and:
`tf.data.TFRecordDataset(path)`
Run Code Online (Sandbox Code Playgroud)
所以我想知道如何使用tf.data.TFRecordDataset(path)读取TF2生成的tfevent文件。
我在 docker 容器中运行以下内容:
不幸的是,在训练期间,Tensorboard 仅更新验证标量图(准确度和损失),而不是训练数据的标量图。训练和验证的目录都被选择显示在图表中。
我发现,当我停止 Tensorboard 并重新启动它时,会显示在此时间步之前当前可用的火车标量。不幸的是,这些不会更新,尽管验证标量会随着每个 epocch 更新。
有人知道这个问题的解决方案吗?
以下代码使用 TensorFlow v2.0
import tensorflow as tf
a = tf.constant(6.0, name = "constant_a")
b = tf.constant(3.0, name = "constant_b")
c = tf.constant(10.0, name = "constant_c")
d = tf.constant(5.0, name = "constant_d")
mul = tf.multiply(a, b , name = "mul")
div = tf.divide(c,d, name ="div")
addn = tf.add_n([mul, div], name = "addn")
writer = tf.summary.create_file_writer("./tensorboard")
with writer.as_default():
tf.summary.scalar("addn_harsha", addn, step=1)
Run Code Online (Sandbox Code Playgroud)
我是 Python 和 Tensorflow 的新手。我可以使用上面的代码在 Tensorboard 中创建标量。但我无法生成相同的图表。
在 TensorFlow v1.0 中,我们这样写: writer = tf.summary.FileWriter("./tensorboard", sess.graph)
但是在 TensorFlow v2.0 中,不再使用 Session。那么,我们可以编写什么来使用 TensorFlow …
我已经用微调预训练模型训练了一个模型ssd_mobilenet_v2_coco_2018。在这里,我使用了完全相同的 pipeline.config 文件进行训练,该文件在ssd_mobilenet_v2_coco_2018预训练文件夹中可用。我只删除了batch_norm_trainable: true标志并更改了类的数量(4)。与我的自定义数据集有4班训练模型后,我发现concat和concat_1节点得到相互交流。预训练模型
| concat | 1x1917x1x4 |
经过训练后,
| concat | 1x1917x5 |
我已经附加了两个张量板图形可视化图像。第一张图片是预训练图ssd_mobilenet_v2_coco_2018。

节点交换可以在图像的最右上角看到。与预训练图中一样,Postprocess layer连接concat_1并Squeeeze连接concat。但经过训练后,图形显示完全相反。喜欢Prosprocess layer连接concat和Squeeeze连接concat_1。此外,我也在预训练的模型曲线图发现,Preprocessor采用输入ToFloat同时培养铸造作为输入到图显示之后Preprocessor。我已将输入作为tfrecords.
python python-3.x tensorflow tensorboard object-detection-api