Sli*_*ity 7 python tensorflow pytorch onnx huggingface-transformers
我正在尝试将 HuggingFace 变压器模型中的 Pegasus 新闻编辑室转换为 ONNX 格式。我遵循了Huggingface 发布的指南。安装先决条件后,我运行了以下代码:
!rm -rf onnx/
from pathlib import Path
from transformers.convert_graph_to_onnx import convert
convert(framework="pt", model="google/pegasus-newsroom", output=Path("onnx/google/pegasus-newsroom.onnx"), opset=11)
Run Code Online (Sandbox Code Playgroud)
并得到这些错误:
ValueError Traceback (most recent call last)
<ipython-input-9-3b37ed1ceda5> in <module>()
3 from transformers.convert_graph_to_onnx import convert
4
----> 5 convert(framework="pt", model="google/pegasus-newsroom", output=Path("onnx/google/pegasus-newsroom.onnx"), opset=11)
6
7
6 frames
/usr/local/lib/python3.6/dist-packages/transformers/models/pegasus/modeling_pegasus.py in forward(self, input_ids, attention_mask, encoder_hidden_states, encoder_attention_mask, head_mask, encoder_head_mask, past_key_values, inputs_embeds, use_cache, output_attentions, output_hidden_states, return_dict)
938 input_shape = inputs_embeds.size()[:-1]
939 else:
--> 940 raise ValueError("You have to specify either decoder_input_ids or decoder_inputs_embeds")
941
942 # past_key_values_length
ValueError: You have to specify either decoder_input_ids or decoder_inputs_embeds
Run Code Online (Sandbox Code Playgroud)
我以前从未见过这个错误。有任何想法吗?
wav*_*per 13
Pegasus是一个seq2seq
模型,你不能seq2seq
使用这种方法直接转换模型(编码器-解码器模型)。guide
用于 BERT,它是一种编码器模型。任何仅编码器或仅解码器变压器模型都可以使用此方法进行转换。
要转换seq2seq
模型(编码器-解码器),您必须将它们分开并单独转换,将编码器转换为 onnx,将解码器转换为 onnx。你可以按照这个指南(它是为T5完成的,它也是一个seq2seq
模型)
为什么会出现这个错误?
_ = torch.onnx._export(
model,
dummy_input,
...
)
Run Code Online (Sandbox Code Playgroud)
您需要分别向编码器和解码器提供一个虚拟变量。默认情况下,使用此方法进行转换时,它会向编码器提供虚拟变量。由于这种转换方法不接受此 seq2seq 模型的解码器,因此它不会向解码器提供虚拟变量,并且您会收到上述错误。
ValueError: You have to specify either decoder_input_ids or decoder_inputs_embeds
归档时间: |
|
查看次数: |
5748 次 |
最近记录: |