我正在研究Keras中的分段问题,我希望在每个训练时代结束时显示分段结果.
我想要一些类似于Tensorflow:如何在Tensorboard中显示自定义图像(例如Matplotlib Plots),但使用Keras.我知道Keras有TensorBoard回调但看起来似乎有限.
我知道这会破坏Keras的后端抽象,但无论如何我对使用TensorFlow后端感兴趣.
是否有可能通过Keras + TensorFlow实现这一目标?
我正在寻找一个张量嵌入示例,带有虹膜数据,例如嵌入式投影仪http://projector.tensorflow.org/
但不幸的是我找不到一个.有关如何在https://www.tensorflow.org/how_tos/embedding_viz/中执行此操作的一些信息
有人知道这个功能的基本教程吗?
基本:
1)设置保持嵌入的2D张量变量.
embedding_var = tf.Variable(....)
Run Code Online (Sandbox Code Playgroud)
2)定期将嵌入保存在LOG_DIR中.
3)将元数据与嵌入相关联.
我有一个相当复杂的Tensorflow图,我想为优化目的进行可视化.是否有一个我可以调用的函数,只需保存图形以便在Tensorboard中查看而无需注释变量?
我试过这个:
merged = tf.merge_all_summaries()
writer = tf.train.SummaryWriter("/Users/Name/Desktop/tf_logs", session.graph_def)
Run Code Online (Sandbox Code Playgroud)
但没有产生任何产出.这是使用0.6轮.
这似乎是相关的: 在seq2seq模型的张量板中没有显示图形可视化
Tensorboard应该从commnad行开始,如:
tensorboard --logdir=path
Run Code Online (Sandbox Code Playgroud)
我需要从代码中运行它.到现在为止我用这个:
import os
os.system('tensorboard --logdir=' + path)
Run Code Online (Sandbox Code Playgroud)
但是,由于未包含在系统路径中,因此张贴板无法启动.我在Windows上使用PyCharm和virtualenv.我不想更改系统路径,因此唯一的选择是从virtualenv运行它.这该怎么做?
当我在wind中使用cmd中的tensorboard时
D:\ python document\tensorflow> tensorboard --logdir = D:\ python document\tensorflow在http://0.0.0.0:6006开始TensorBoard b'47'
但是,当我打开网页时,它会显示出来
"dial tcp 0.0.0.0:6006:connectex:请求的地址在其上下文中无效."
然后我尝试了localhost:6006,它显示了
"没有找到标量数据."
那我该怎么办呢
我正在阅读使用Keras的Deep Learning with Python一书.在第7章中,它展示了如何使用TensorBoard监控培训阶段进度,并举例说明:
import keras
from keras import layers
from keras.datasets import imdb
from keras.preprocessing import sequence
max_features = 2000
max_len = 500
(x_train, y_train), (x_test, y_test) = imdb.load_data(num_words=max_features)
x_train = sequence.pad_sequences(x_train, maxlen=max_len)
x_test = sequence.pad_sequences(x_test, maxlen=max_len)
model = keras.models.Sequential()
model.add(layers.Embedding(max_features, 128, input_length=max_len, name='embed'))
model.add(layers.Conv1D(32, 7, activation='relu'))
model.add(layers.MaxPooling1D(5))
model.add(layers.Conv1D(32, 7, activation='relu'))
model.add(layers.GlobalMaxPooling1D())
model.add(layers.Dense(1))
model.summary()
model.compile(optimizer='rmsprop', loss='binary_crossentropy', metrics=['acc'])
callbacks = [
keras.callbacks.TensorBoard(
log_dir='my_log_dir',
histogram_freq=1,
embeddings_freq=1,
)
]
history = model.fit(x_train, y_train, epochs=20, batch_size=128, validation_split=0.2, callbacks=callbacks)
Run Code Online (Sandbox Code Playgroud)
显然,Keras库已经经历了一些更改,因为此代码引发了一些异常:
ValueError: To …Run Code Online (Sandbox Code Playgroud) 我有一个神经网络,其组织如下:
conv1 - pool1 - local reponse normalization (lrn2) - conv2 - lrn2 - pool2 -
conv3 - pool3 - conv4 - pool4 - conv5 - pool5 - dense layer (local1) -
local2 - softmax
Run Code Online (Sandbox Code Playgroud)
在查看了tensorboard的发行版之后,我得到了以下内容:
因此,从损失数字来看,很明显网络正在学习.此外,所有的偏见都表明它们是学习的结果.但是重量怎么样,看起来它们没有随时间变化?我从它的数字中得到的是合乎逻辑的吗?请注意,我只在图表中发布了权重和偏差的图像子集.所有重量的数字都与我在这里所呈现的数字类似,同样对于偏见似乎学习了偏见,而重量则没有!
以下是我构建图表的方法:
# Parameters
learning_rate = 0.0001
batch_size = 1024
n_classes = 1 # 1 since we need the value of the retrainer.
weights = {
'weights_conv1': tf.get_variable(name='weights1', shape=[5, 5, 3, 128], dtype=tf.float32,
initializer=tf.contrib.layers.xavier_initializer_conv2d(uniform=False, dtype=tf.float32)),
'weights_conv2': tf.get_variable(name='weights2', shape=[3, 3, 128, …Run Code Online (Sandbox Code Playgroud) 我按照此处描述的步骤从源代码在MacBook Pro 10.12.5上安装了TensorFlow. https://www.tensorflow.org/install/install_sources
TensorFlow本身运行良好,但我无法运行TensorBoard.似乎没有正确安装tensorboard.
当我尝试运行tensorboard --logdir=...时说-bash: tensorboard: command not found.并locate tensorboard 返回空.
我是否需要安装张量板的其他步骤?
tensorboard ×10
tensorflow ×8
keras ×3
python ×3
anaconda ×1
distribution ×1
embedding ×1
python-3.x ×1
virtualenv ×1