khe*_*edi 8 nlp transformer-model tensorflow bert-language-model
我有两个关于如何使用 Transformers 的 Tensorflow 实现进行文本分类的问题。
谢谢!
Jin*_*ich 10
有两种方法,你可以采取:
[CLS](或您喜欢的任何称呼)并将特殊标记的隐藏状态用作分类器的输入。BERT使用了第二种方法。预训练时,利用这个特殊token对应的隐藏状态来预测两个句子是否连续。在下游任务中,也用于句子分类。然而,我的经验是,有时,平均隐藏状态会得到更好的结果。
与从头开始训练 Transformer 模型相比,使用(并最终微调)来自Transformers 包的预训练模型(BERT、XLNet、DistilBERT 等)可能更方便。它具有可在 PyTorch 和 TensorFlow 2.0 中使用的预训练模型。
小智 5
| 归档时间: |
|
| 查看次数: |
8363 次 |
| 最近记录: |