Pey*_*man 5 nlp huggingface-transformers huggingface
我对两个 Huggingface 管道TextGeneration和Text2TextGeneration之间的技术差异感到困惑。
在 TextGeneration 中指出:
使用任何 ModelWithLMHead 的语言生成管道。该管道预测指定文本提示后面的单词。
但不是有语言模型可以做到这一点吗?“预测下一个单词”?那么这个管道与 Text2TextGeneration 有什么不同呢?Text2TextGeneration 不会预测下一个可能的单词吗?
我还尝试了使用“Text2TextGeneration”管道的一些模型,尽管 HuggingFace 发出警告“该模型不支持 text2text- Generation”,但它实际上有效并生成了一些输出。
如果有人可以解释技术差异,我们将不胜感激。
据我了解,文本生成是在给定输入文本之后生成文本的过程(或“预测下一个单词”),而 text2text- Generation 是指转换文本,就像将文本翻译为另一种语言或自动更正文本中的拼写。这不一定是架构差异,而不是模型训练的目的。
在通用语言模型的背景下,人们可能会认为像 BERT 这样的 Transformer 编码器模型更多地在文本到文本生成方面,而像 GPT 这样的 Transformer 编码器-解码器模型更多地在文本生成方面,但是两者仍然可以在两种情况下使用。因此,您收到的警告实际上只是告诉您该模型并不意味着执行该任务,但如果您给它正确的输入,它仍然可以工作,例如:
“英:世界你好!格尔:”
给予类似 GPT 的文本生成模型来翻译一些文本。