jsh*_*py8 13 python machine-learning tensorflow tensorflow-serving
我已经导出了一个SavedModel,现在我用它来加载它并进行预测.它经过培训,具有以下功能和标签:
F1 : FLOAT32
F2 : FLOAT32
F3 : FLOAT32
L1 : FLOAT32
Run Code Online (Sandbox Code Playgroud)
所以说我想要在值中20.9, 1.8, 0.9得到一个单一的FLOAT32预测.我该如何做到这一点?我已成功加载模型,但我不知道如何访问它来进行预测调用.
with tf.Session(graph=tf.Graph()) as sess:
tf.saved_model.loader.load(
sess,
[tf.saved_model.tag_constants.SERVING],
"/job/export/Servo/1503723455"
)
# How can I predict from here?
# I want to do something like prediction = model.predict([20.9, 1.8, 0.9])
Run Code Online (Sandbox Code Playgroud)
这个问题与此处发布的问题不重复.这个问题集中在SavedModel对任何模型类(不仅限于tf.estimator)和对指定输入和输出节点名称的语法进行推理的最小示例.
rha*_*l80 11
假设您想要在Python中进行预测,SavedModelPredictor可能是加载SavedModel并获得预测的最简单方法.假设您保存模型,如下所示:
# Build the graph
f1 = tf.placeholder(shape=[], dtype=tf.float32)
f2 = tf.placeholder(shape=[], dtype=tf.float32)
f3 = tf.placeholder(shape=[], dtype=tf.float32)
l1 = tf.placeholder(shape=[], dtype=tf.float32)
output = build_graph(f1, f2, f3, l1)
# Save the model
inputs = {'F1': f1, 'F2': f2, 'F3': f3, 'L1': l1}
outputs = {'output': output_tensor}
tf.contrib.simple_save(sess, export_dir, inputs, outputs)
Run Code Online (Sandbox Code Playgroud)
(输入可以是任何形状,甚至不必是图中的占位符或根节点).
然后,在将使用的Python程序中SavedModel,我们可以获得如下预测:
from tensorflow.contrib import predictor
predict_fn = predictor.from_saved_model(export_dir)
predictions = predict_fn(
{"F1": 1.0, "F2": 2.0, "F3": 3.0, "L1": 4.0})
print(predictions)
Run Code Online (Sandbox Code Playgroud)
这个答案显示了如何在Java,C++和Python中获得预测(尽管问题集中在Estimators上,但答案实际上与应用SavedModel程序的创建无关).
对于任何需要保存经过训练的罐装模型并在没有使用tensorflow服务的情况下提供服务的工作示例的人,我在此处记录了 https://github.com/tettusud/tensorflow-examples/tree/master/estimators
tf.tensorflow.contrib.predictor.from_saved_model( exported_model_path)准备输入
tf.train.Example(
features= tf.train.Features(
feature={
'x': tf.train.Feature(
float_list=tf.train.FloatList(value=[6.4, 3.2, 4.5, 1.5])
)
}
)
)
Run Code Online (Sandbox Code Playgroud)以下x是export_receiver_function在导出时给出的输入名称.例如:
feature_spec = {'x': tf.FixedLenFeature([4],tf.float32)}
def serving_input_receiver_fn():
serialized_tf_example = tf.placeholder(dtype=tf.string,
shape=[None],
name='input_tensors')
receiver_tensors = {'inputs': serialized_tf_example}
features = tf.parse_example(serialized_tf_example, feature_spec)
return tf.estimator.export.ServingInputReceiver(features, receiver_tensors)
Run Code Online (Sandbox Code Playgroud)
加载图形后,它在当前上下文中可用,您可以通过它提供输入数据以获得预测。每个用例都相当不同,但是添加到您的代码中的内容将如下所示:
with tf.Session(graph=tf.Graph()) as sess:
tf.saved_model.loader.load(
sess,
[tf.saved_model.tag_constants.SERVING],
"/job/export/Servo/1503723455"
)
prediction = sess.run(
'prefix/predictions/Identity:0',
feed_dict={
'Placeholder:0': [20.9],
'Placeholder_1:0': [1.8],
'Placeholder_2:0': [0.9]
}
)
print(prediction)
Run Code Online (Sandbox Code Playgroud)
在这里,您需要知道预测输入的名称。如果你没有在你的 中给他们一个中殿serving_fn,那么他们默认为Placeholder_n,n第 n 个功能在哪里。
的第一个字符串参数sess.run是预测目标的名称。这将根据您的用例而有所不同。