TensorFlow:如何从SavedModel预测?

jsh*_*py8 13 python machine-learning tensorflow tensorflow-serving

我已经导出了一个SavedModel,现在我用它来加载它并进行预测.它经过培训,具有以下功能和标签:

F1 : FLOAT32
F2 : FLOAT32
F3 : FLOAT32
L1 : FLOAT32
Run Code Online (Sandbox Code Playgroud)

所以说我想要在值中20.9, 1.8, 0.9得到一个单一的FLOAT32预测.我该如何做到这一点?我已成功加载模型,但我不知道如何访问它来进行预测调用.

with tf.Session(graph=tf.Graph()) as sess:
    tf.saved_model.loader.load(
        sess,
        [tf.saved_model.tag_constants.SERVING],
        "/job/export/Servo/1503723455"
    )

    # How can I predict from here?
    # I want to do something like prediction = model.predict([20.9, 1.8, 0.9])
Run Code Online (Sandbox Code Playgroud)

这个问题与此处发布的问题不重复.这个问题集中在SavedModel对任何模型类(不仅限于tf.estimator)和对指定输入和输出节点名称的语法进行推理的最小示例.

rha*_*l80 11

假设您想要在Python中进行预测,SavedModelPredictor可能是加载SavedModel并获得预测的最简单方法.假设您保存模型,如下所示:

# Build the graph
f1 = tf.placeholder(shape=[], dtype=tf.float32)
f2 = tf.placeholder(shape=[], dtype=tf.float32)
f3 = tf.placeholder(shape=[], dtype=tf.float32)
l1 = tf.placeholder(shape=[], dtype=tf.float32)
output = build_graph(f1, f2, f3, l1)

# Save the model
inputs = {'F1': f1, 'F2': f2, 'F3': f3, 'L1': l1}
outputs = {'output': output_tensor}
tf.contrib.simple_save(sess, export_dir, inputs, outputs)
Run Code Online (Sandbox Code Playgroud)

(输入可以是任何形状,甚至不必是图中的占位符或根节点).

然后,在将使用的Python程序中SavedModel,我们可以获得如下预测:

from tensorflow.contrib import predictor

predict_fn = predictor.from_saved_model(export_dir)
predictions = predict_fn(
    {"F1": 1.0, "F2": 2.0, "F3": 3.0, "L1": 4.0})
print(predictions)
Run Code Online (Sandbox Code Playgroud)

这个答案显示了如何在Java,C++和Python中获得预测(尽管问题集中在Estimators上,但答案实际上与应用SavedModel程序的创建无关).


sud*_* tk 6

对于任何需要保存经过训练的罐装模型并在没有使用tensorflow服务的情况下提供服务的工作示例的人,我在此处记录了 https://github.com/tettusud/tensorflow-examples/tree/master/estimators

  1. 您可以从中创建预测器 tf.tensorflow.contrib.predictor.from_saved_model( exported_model_path)
  2. 准备输入

    tf.train.Example( 
        features= tf.train.Features(
            feature={
                'x': tf.train.Feature(
                     float_list=tf.train.FloatList(value=[6.4, 3.2, 4.5, 1.5])
                )     
            }
        )    
    )
    
    Run Code Online (Sandbox Code Playgroud)

以下x是export_receiver_function在导出时给出的输入名称.例如:

feature_spec = {'x': tf.FixedLenFeature([4],tf.float32)}

def serving_input_receiver_fn():
    serialized_tf_example = tf.placeholder(dtype=tf.string,
                                           shape=[None],
                                           name='input_tensors')
    receiver_tensors = {'inputs': serialized_tf_example}
    features = tf.parse_example(serialized_tf_example, feature_spec)
    return tf.estimator.export.ServingInputReceiver(features, receiver_tensors)
Run Code Online (Sandbox Code Playgroud)


jsh*_*py8 5

加载图形后,它在当前上下文中可用,您可以通过它提供输入数据以获得预测。每个用例都相当不同,但是添加到您的代码中的内容将如下所示:

with tf.Session(graph=tf.Graph()) as sess:
    tf.saved_model.loader.load(
        sess,
        [tf.saved_model.tag_constants.SERVING],
        "/job/export/Servo/1503723455"
    )

    prediction = sess.run(
        'prefix/predictions/Identity:0',
        feed_dict={
            'Placeholder:0': [20.9],
            'Placeholder_1:0': [1.8],
            'Placeholder_2:0': [0.9]
        }
    )

    print(prediction)
Run Code Online (Sandbox Code Playgroud)

在这里,您需要知道预测输入的名称。如果你没有在你的 中给他们一个中殿serving_fn,那么他们默认为Placeholder_nn第 n 个功能在哪里。

的第一个字符串参数sess.run是预测目标的名称。这将根据您的用例而有所不同。