Ume*_*mer 6 inference machine-learning protocol-buffers tensorflow tensorflow-serving
我正在使用自定义图像集来使用Tensorflow API训练神经网络.在成功的训练过程之后,我得到这些检查点文件,其中包含不同训练var的值.我现在想从这些检查点文件中获取推理模型,我找到了这个脚本,然后我可以使用它来生成深度图像,如本教程中所述.问题是当我使用以下方式加载模型时:
import tensorflow as tf
model_fn = 'export'
graph = tf.Graph()
sess = tf.InteractiveSession(graph=graph)
with tf.gfile.FastGFile(model_fn, 'rb') as f:
graph_def = tf.GraphDef()
graph_def.ParseFromString(f.read())
t_input = tf.placeholder(np.float32, name='input')
imagenet_mean = 117.0
t_preprocessed = tf.expand_dims(t_input-imagenet_mean, 0)
tf.import_graph_def(graph_def, {'input':t_preprocessed})
Run Code Online (Sandbox Code Playgroud)
我收到此错误:
graph_def.ParseFromString(f.read())
self.MergeFromString(连载)
raise message_mod.DecodeError('Unexpected end-group tag.')google.protobuf.message.DecodeError:意外的端组标记.
该脚本需要一个协议缓冲区文件,我不确定我用来生成推理模型的脚本是否给我原型缓冲区文件.
有人可以建议我做错了什么,或者有更好的方法来实现这一目标.我只想将张量生成的检查点文件转换为proto缓冲区.
谢谢
您运行的脚本的链接已损坏,但在任何情况下,建议不要尝试从检查点生成推理模型,而是在训练程序末尾嵌入代码,该代码将发出“SavedModel”导出(这与检查点不同)。
请参阅 [1],特别是标题“构建已保存的模型”。请注意,保存的模型由多个文件组成,其中之一确实是协议缓冲区(我希望它能直接回答您的问题);其他是变量文件和(可选)资产文件。
[1] https://www.tensorflow.org/programmers_guide/saved_model
归档时间: |
|
查看次数: |
554 次 |
最近记录: |