cra*_*_dd 1 python-3.x word2vec word-embedding
是Google预训练的word2vec模型CBO或者skipgram。
我们通过以下方式加载预训练模型:
from gensim.models.keyedvectors as word2vec
model= word2vec.KeyedVectors.load_word2vec_format('GoogleNews-vectors-negative300.bin.gz')
Run Code Online (Sandbox Code Playgroud)
我们如何专门加载预训练的 CBOW 或 Skipgram 模型?
这GoogleNews向量由谷歌使用专有语料库进行训练,但它们从未明确描述所使用的所有训练参数。(它没有编码在文件中。)
在专门讨论该代码的 Google 小组上,人们多次询问这个word2vec-toolkit问题,但没有得到明确的答案。例如,word2vec 作者 Mikolov 回应说他不记得训练参数。在其他地方,另一位发帖者认为其中一篇 word2vec 论文暗示使用了 Skip-gram \xe2\x80\x93 但由于该段落与已发布向量的其他方面(如词汇量)不完全匹配GoogleNews,我不会对此完全有信心。
由于谷歌还没有明确表态,而且无论如何也没有发布基于不同训练模式的替代版本,如果你想运行任何测试或对不同模式做出任何结论,你将不得不使用其他向量集,或以不同的方式训练你自己的向量。
\n| 归档时间: |
|
| 查看次数: |
1552 次 |
| 最近记录: |