SFD*_*SFD 10 nlp pytorch bert-language-model
当使用 pytorch 中预先训练的 BERT 嵌入(然后进行微调)时,是否应该像任何标准 NLP 任务一样对输入模型的文本数据进行预处理?
例如,应该执行词干提取、删除低频单词、去大写字母化,还是应该将原始文本简单地传递给“transformers.BertTokenizer”?
小智 11
我认为预处理不会改变你的输出预测。我会尽力解释你提到的每个案例 -
Adn*_*n S 0
在大多数情况下,输入原始文本效果很好。如果您需要更具体的答案,请分享有关您的用例的示例数据。
归档时间:
5 年,2 月 前
查看次数:
8504 次
最近记录:
1 年,9 月 前