HuggingFace 的 TextGeneration 和 Text2TextGeneration 管道有什么区别

Pey*_*man 5 nlp huggingface-transformers huggingface

我对两个 Huggingface 管道TextGenerationText2TextGeneration之间的技术差异感到困惑。

在 TextGeneration 中指出:

使用任何 ModelWithLMHead 的语言生成管道。该管道预测指定文本提示后面的单词。

但不是有语言模型可以做到这一点吗?“预测下一个单词”?那么这个管道与 Text2TextGeneration 有什么不同呢?Text2TextGeneration 不会预测下一个可能的单词吗?

我还尝试了使用“Text2TextGeneration”管道的一些模型,尽管 HuggingFace 发出警告“该模型不支持 text2text- Generation”,但它实际上有效并生成了一些输出。

如果有人可以解释技术差异,我们将不胜感激。

Riv*_*ver 2

据我了解,文本生成是在给定输入文本之后生成文本的过程(或“预测下一个单词”),而 text2text- Generation 是指转换文本,就像将文本翻译为另一种语言或自动更正文本中的拼写。这不一定是架构差异,而不是模型训练的目的。

在通用语言模型的背景下,人们可能会认为像 BERT 这样的 Transformer 编码器模型更多地在文本到文本生成方面,而像 GPT 这样的 Transformer 编码器-解码器模型更多地在文本生成方面,但是两者仍然可以在两种情况下使用。因此,您收到的警告实际上只是告诉您该模型并不意味着执行该任务,但如果您给它正确的输入,它仍然可以工作,例如:

“英:世界你好!格尔:”

给予类似 GPT 的文本生成模型来翻译一些文本。