目前,我们已成功使用Tensorflow服务为模型提供服务.我们使用以下方法导出模型并使用Tensorflow服务托管它.
------------
For exporting
------------------
from tensorflow.contrib.session_bundle import exporter
K.set_learning_phase(0)
export_path = ... # where to save the exported graph
export_version = ... # version number (integer)
saver = tf.train.Saver(sharded=True)
model_exporter = exporter.Exporter(saver)
signature = exporter.classification_signature(input_tensor=model.input,
scores_tensor=model.output)
model_exporter.init(sess.graph.as_graph_def(),
default_graph_signature=signature)
model_exporter.export(export_path, tf.constant(export_version), sess)
--------------------------------------
For hosting
-----------------------------------------------
bazel-bin/tensorflow_serving/model_servers/tensorflow_model_server --port=9000 --model_name=default --model_base_path=/serving/models
Run Code Online (Sandbox Code Playgroud)
但是我们的问题是 - 我们希望keras与Tensorflow服务集成.我们希望通过使用Keras的Tensorflow服务该模型.我们希望拥有的原因是因为 - 在我们的架构中,我们采用了几种不同的方式来训练我们的模型,如deeplearning4j + Keras,Tensorflow + Keras,但是为了服务,我们只想使用一个Tensorflow服务的可用引擎.我们没有看到任何直接的方法来实现这一目标.任何意见 ?
谢谢.