我正在尝试转换以下博客Image Captioning using Deep Learning (CNN and LSTM)中提到的 CNN+LSTM 模型。相关的 github 存储库是:Pytorch 图像字幕
\n我想将这个 pytorch 模型转换为 tflite。它具有编码器和解码器检查点。据我了解,它们都必须转换为 tflite (如果我错了,请纠正我)
\n方法: 使用 onnx2keras 库中提到的示例,onnx2keras我能够将编码器转换为 tflite。但使用解码器我面临以下问题。
\n不确定什么是正确的方法。谁能建议更好的方法并帮助我实现 tflite 模型
\n\n\n文件\xe2\x80\x9cconvert_pytorch_tf.py\xe2\x80\x9d,第63行,在change_ordering=False中)文件\n\xe2\x80\x9c/root/anaconda3/envs/pyt2tf/lib/python3.7/site- packages/pytorch2keras/converter.py\xe2\x80\x9d,\n第 53 行,在 pytorch_to_keras dummy_output = model(*args) 文件\n\xe2\x80\x9c/root/anaconda3/envs/pyt2tf/lib/python3.7 /site-packages/torch/nn/modules/module.py\xe2\x80\x9d,\n第 550 行,调用结果 = self.forward(*input, **kwargs) TypeError:\nforward() 缺少 2 个必需的位置参数:\xe2\x80\x98captions\xe2\x80\x99 和\n\xe2\x80\x98lengths\xe2\x80\x99
\n
请让我知道要遵循哪种方法,并帮助我解决与我所采取的方法相关的问题
\n