我知道GPT使用Transformer解码器,BERT使用Transformer编码器,T5使用Transformer编码器-解码器。但是有人可以帮我理解为什么GPT只使用解码器,BERT只使用编码器,而T5两者都使用?
仅使用编码器而不使用解码器、使用解码器而不使用编码器以及同时使用编码器和解码器可以做什么?
我是 NLP 新手,所以任何帮助都会很好:D 谢谢!
nlp bert-language-model generative-pretrained-transformer
bert-language-model ×1
generative-pretrained-transformer ×1
nlp ×1