Ben*_*sse 8 python tensorflow tensorflow-datasets
我正在使用Tensorflow 1.4.
我创建了一个自定义的tf.estimator来进行分类,如下所示:
def model_fn():
# Some operations here
[...]
return tf.estimator.EstimatorSpec(mode=mode,
predictions={"Preds": predictions},
loss=cost,
train_op=loss,
eval_metric_ops=eval_metric_ops,
training_hooks=[summary_hook])
my_estimator = tf.estimator.Estimator(model_fn=model_fn,
params=model_params,
model_dir='/my/directory')
Run Code Online (Sandbox Code Playgroud)
我可以轻松训练它:
input_fn = create_train_input_fn(path=train_files)
my_estimator.train(input_fn=input_fn)
Run Code Online (Sandbox Code Playgroud)
其中input_fn是一个使用tf.data.Dataset API从tfrecords文件读取数据的函数.
当我从tfrecords文件中读取时,我在进行预测时没有内存中的标签.
我的问题是,如何通过predict()方法或evaluate()方法返回预测和标签?
似乎没有办法同时拥有这两者.predict()没有对标签的访问(?),并且不可能使用evaluate()方法访问预测字典.
GPh*_*ilo 10
完成培训后,'/my/directory'您有一堆检查点文件.
您需要再次设置输入管道,手动加载其中一个文件,然后开始循环存储预测和标签的批次:
# Rebuild the input pipeline
input_fn = create_eval_input_fn(path=eval_files)
features, labels = input_fn()
# Rebuild the model
predictions = model_fn(features, labels, tf.estimator.ModeKeys.EVAL).predictions
# Manually load the latest checkpoint
saver = tf.train.Saver()
with tf.Session() as sess:
ckpt = tf.train.get_checkpoint_state('/my/directory')
saver.restore(sess, ckpt.model_checkpoint_path)
# Loop through the batches and store predictions and labels
prediction_values = []
label_values = []
while True:
try:
preds, lbls = sess.run([predictions, labels])
prediction_values += preds
label_values += lbls
except tf.errors.OutOfRangeError:
break
# store prediction_values and label_values somewhere
Run Code Online (Sandbox Code Playgroud)
更新:更改为直接使用model_fn您已有的功能.