我们知道BERT有tokens的最大长度限制=512,那么如果一篇文章的长度远远大于512,比如文本中有10000个tokens,BERT怎么用呢?
nlp text-classification bert-language-model
bert-language-model ×1
nlp ×1
text-classification ×1