Sha*_*ana 5 nlp huggingface-transformers gpt-2
我正在尝试在句子分类任务中使用变压器嵌入,而不对其进行微调。我使用过 BERT 嵌入,这些实验给了我非常好的结果。现在我想使用 GPT-2 嵌入(无需微调)。所以我有两个问题,
Sha*_*ana 6
我基本上解决了问题。这里我使用了从 GPT-2 中提取的嵌入。
所以是的,我们可以使用 GPT-2 嵌入序列的最终标记作为类标记。由于从左到右的自注意力机制,最终的token可以表示顺序信息。
请检查以下 GitHub 问题,了解使用 GPT-2 嵌入的实现。github问题
我进行了实验来比较 GPT-2 嵌入和 RoBERTa 嵌入。我仅使用 RoBERTa 嵌入而不是 GPT-2 获得了更好的结果。
归档时间:
5 年,10 月 前
查看次数:
7296 次
最近记录:
5 年,1 月 前