SFD*_*SFD 10 nlp pytorch bert-language-model
当使用 pytorch 中预先训练的 BERT 嵌入(然后进行微调)时,是否应该像任何标准 NLP 任务一样对输入模型的文本数据进行预处理?
例如,应该执行词干提取、删除低频单词、去大写字母化,还是应该将原始文本简单地传递给“transformers.BertTokenizer”?
小智 11
我认为预处理不会改变你的输出预测。我会尽力解释你提到的每个案例 -
归档时间: |
|
查看次数: |
8504 次 |
最近记录: |