是否可以使用 Google BERT 计算两个文本文档之间的相似度?据我了解,BERT 的输入应该是有限大小的句子。一些作品使用 BERT 来计算句子的相似度,例如:
https://github.com/AndriyMulyar/semantic-text-similarity
https://github.com/beekbin/bert-cosine-sim
是否有 BERT 的实现来将其用于大型文档而不是句子作为输入(具有数千个单词的文档)?
python text nlp scikit-learn word-embedding
nlp ×1
python ×1
scikit-learn ×1
text ×1
word-embedding ×1