是否有规范的方法来维持Tensorflow服务的有状态LSTM等?
直接使用Tensorflow API这很简单 - 但我不确定在将模型导出到Serving之后如何最好地在调用之间实现持久的LSTM状态.
有什么例子可以实现上述目标吗?回购中的样品非常基本.
lstm tensorflow gated-recurrent-unit tensorflow-serving
gated-recurrent-unit ×1
lstm ×1
tensorflow ×1
tensorflow-serving ×1