小编Sum*_*osh的帖子

用Tensorflow服务服务Keras模型

目前,我们已成功使用Tensorflow服务为模型提供服务.我们使用以下方法导出模型并使用Tensorflow服务托管它.

     ------------
      For exporting 
     ------------------
     from tensorflow.contrib.session_bundle import exporter

     K.set_learning_phase(0)
     export_path = ... # where to save the exported graph
     export_version = ... # version number (integer)

     saver = tf.train.Saver(sharded=True)
     model_exporter = exporter.Exporter(saver)
     signature = exporter.classification_signature(input_tensor=model.input,
                                          scores_tensor=model.output)
     model_exporter.init(sess.graph.as_graph_def(),
                default_graph_signature=signature)
     model_exporter.export(export_path, tf.constant(export_version), sess)

      --------------------------------------

      For hosting
      -----------------------------------------------

      bazel-bin/tensorflow_serving/model_servers/tensorflow_model_server --port=9000 --model_name=default --model_base_path=/serving/models
Run Code Online (Sandbox Code Playgroud)

但是我们的问题是 - 我们希望keras与Tensorflow服务集成.我们希望通过使用Keras的Tensorflow服务该模型.我们希望拥有的原因是因为 - 在我们的架构中,我们采用了几种不同的方式来训练我们的模型,如deeplearning4j + Keras,Tensorflow + Keras,但是为了服务,我们只想使用一个Tensorflow服务的可用引擎.我们没有看到任何直接的方法来实现这一目标.任何意见 ?

谢谢.

serving keras tensorflow tensorflow-serving dl4j

5
推荐指数
1
解决办法
6718
查看次数

标签 统计

dl4j ×1

keras ×1

serving ×1

tensorflow ×1

tensorflow-serving ×1