我目前正在一个稍大的 TensorFlow 项目中工作,并尝试像往常一样可视化网络的某些变量,即执行此工作流程
tf.summary.scalar('loss', loss)summary_op = tf.summary.merge_all()writer = tf.summary.FileWriter('PATH')并添加图表s = sess.run(summary_op)writer.add_summary(s, epoch)通常这对我有用。但这一次,我只显示了图表,当我检查事件文件时,我发现它是空的。巧合的是,我发现有人建议writer.flush()在添加我的摘要作为第 6 步后使用。这解决了我的问题。
因此,合乎逻辑的后续问题是:我必须何时以及如何使用FileWriter.flush()才能使 tensorflow 正常工作?
当我在训练时使用 tensorboard 回调时出现此错误。
我尝试从与张量板错误相关的帖子中寻找答案,但在任何 stackoverflow 帖子或 github 问题中都没有找到这个确切的错误。
请告知。
我的电脑中安装了以下版本:
Tensorflow 和 Tensorflow GPU:2.0.0
张量板:2.0.0
python-3.x deep-learning tensorflow tensorboard tensorflow2.0
tensorboard --logdir=./model/ted500/summaries
Starting TensorBoard 28 on port 6006
Run Code Online (Sandbox Code Playgroud)
有时它会在这里显示网址,有时它会卡在那里。我是张量板的新手,因此遵循了几个教程来运行它,但似乎它仍然不起作用。
有人可以建议如何启动张量板吗?
使用 TensorFlow 1.13.1,我可以使用 Tensorboard 保存日志,但是当我升级到 TensorFlow 2.0.0_alpha0 时,相同的代码给了我错误:
"Failed to create a directory: logs/fit/20190411-193710\train; No such file or directory [Op:CreateSummaryFileWriter]"
Run Code Online (Sandbox Code Playgroud)
我能做些什么来纠正 TensorFlow 2.0.0_alpha0 的这个问题
import tensorflow as tf
import datetime
mnist = tf.keras.datasets.mnist
(x_train, y_train),(x_test, y_test) = mnist.load_data()
x_train, x_test = x_train / 255.0, x_test / 255.0
def create_model():
return tf.keras.models.Sequential([
tf.keras.layers.Flatten(input_shape=(28, 28)),
tf.keras.layers.Dense(512, activation='relu'),
tf.keras.layers.Dropout(0.2),
tf.keras.layers.Dense(10, activation='softmax')
])
model = create_model()
model.compile(optimizer='adam',
loss='sparse_categorical_crossentropy',
metrics=['accuracy'])
log_dir="logs/fit/"
tensorboard_callback = tf.keras.callbacks.TensorBoard(log_dir=log_dir,
histogram_freq=1)
model.fit(x=x_train,
y=y_train,
epochs=5,
validation_data=(x_test, y_test),
callbacks=[tensorboard_callback])
Run Code Online (Sandbox Code Playgroud) 对于菜鸟问题很抱歉,但是我如何杀死 Tensorflow PID?
它说:
Reusing TensorBoard on port 6006 (pid 5128), started 4 days, 18:03:12 ago. (Use '!kill 5128' to kill it.)
但是我在 windows taks 管理器中找不到任何 PID 5128。在 jupyter 中使用 '!kill 5128' 错误返回找不到命令 kill 。在 Windows cmd 或 conda cmd 中使用它也不起作用。
谢谢你的帮助。
我按照此处的建议在 Tensorflow 2.0-beta0 中使用 HParams 仪表板使用超参数https://www.tensorflow.org/tensorboard/r2/hyperparameter_tuning_with_hparams
我在步骤 1 中感到困惑,找不到更好的解释。我的问题与以下几行有关:
HP_NUM_UNITS = hp.HParam('num_units', hp.Discrete([16, 32]))
HP_DROPOUT = hp.HParam('dropout', hp.RealInterval(0.1, 0.2))
HP_OPTIMIZER = hp.HParam('optimizer', hp.Discrete(['adam', 'sgd']))
Run Code Online (Sandbox Code Playgroud)
我的问题:我想尝试更多的 dropout 值,而不仅仅是两个(0.1 和 0.2)。如果我在其中写入更多值,则会引发错误-“最多可以给出 2 个参数”。我试图寻找文档,但找不到这些 hp.Discrete 和 hp.RealInterval 函数来自何处的任何内容。任何帮助,将不胜感激。谢谢!
我在 pytorch 1.3.1 中使用tensorboard,并且我在pytorch 文档中为tensorboard做了完全相同的事情。运行后tensorboard --logdir=runs,我得到了这个:
。
$ tensorboard --logdir=runs
TensorFlow installation not found - running with reduced feature set.
Serving TensorBoard on localhost; to expose to the network, use a proxy or pass --bind_all
TensorBoard 2.1.0 at http://localhost:6006/ (Press CTRL+C to quit)
Run Code Online (Sandbox Code Playgroud)
打开 http://localhost:6006/ 后,我得到这样的空白页面
我也尝试了tensorboardX,并得到了相同的结果。您能告诉我如何解决这个问题吗?谢谢。
我正在使用 Tensorboard 绘制实验损失图。
我还想将测试结果添加到 Tensorboard 以便于实验比较,但我找不到执行此操作的函数。
我只需要一个简单的表,例如:
| Exp name | Metric 1 | Metric 2 |
|----------|----------|----------|
| Exp 1 | 12 | 123 |
| Exp 2 | 23 | 234 |
Run Code Online (Sandbox Code Playgroud)
我怎样才能实现这个目标?
我正在使用 PyTorch 版本的SummaryWriter.
我正在关注 Pytorch 的Tensorboard文档。
我有以下代码:
model = torchvision.models.resnet50(False)
writer.add_graph(model)
Run Code Online (Sandbox Code Playgroud)
它抛出以下错误:
_ = model(*args) # 不捕获,只打印错误信息
TypeError:* 之后的 ResNet 对象参数必须是可迭代的,而不是 NoneType
我不知道我在这里做错了什么!
如何使用自定义环境将奖励添加到 Stable Baselines3 中的张量板日志记录中?
我有这个学习代码
model = PPO(
"MlpPolicy", env,
learning_rate=1e-4,
policy_kwargs=policy_kwargs,
verbose=1,
tensorboard_log="./tensorboard/")
Run Code Online (Sandbox Code Playgroud) python logging reinforcement-learning tensorboard stable-baselines
tensorboard ×10
python ×6
tensorflow ×5
pytorch ×2
tensorboardx ×2
logging ×1
python-3.x ×1
torch ×1