Luc*_*ini 5 python nlp tokenize spacy
我总是使用英语或德语的spacy库.
要加载库,我使用了以下代码:
import spacy
nlp = spacy.load('en')
Run Code Online (Sandbox Code Playgroud)
我想使用西班牙语tokeniser,但我不知道怎么做,因为spacy没有西班牙语模型.我试过这个
python -m spacy download es
Run Code Online (Sandbox Code Playgroud)
然后:
nlp = spacy.load('es')
Run Code Online (Sandbox Code Playgroud)
但显然没有任何成功.
有人知道如何以正确的方式用西班牙语标记西班牙语句子吗?
对于1.6版本,此代码正常工作:
from spacy.es import Spanish
nlp = Spanish()
Run Code Online (Sandbox Code Playgroud)
但在版本1.7.2中,需要进行一些更改:
from spacy.es import Spanish
nlp = Spanish(path=None)
Run Code Online (Sandbox Code Playgroud)
来源:@honnibal在gitter聊天
| 归档时间: |
|
| 查看次数: |
1223 次 |
| 最近记录: |