gut*_*cha 7 python nlp word2vec word-embedding
我一直在学习 NLP 模型并遇到了词嵌入,并看到了可以通过计算词的点积等来查看词之间的关系的示例。
我正在寻找的只是一本字典,将单词映射到它们的代表向量,这样我就可以使用它。我知道我可以构建一个模型并训练它并创建我自己的地图,但我只想将已经训练好的地图作为 python 变量。
小智 7
您可以尝试使用来自各种新闻文章的约 1000 亿个单词进行训练的 Google word2vec模型。
\n关于词向量的一个有趣的事实,w2v(king) - w2v(man) + w2v(woman) \xe2\x89\x88 w2v(queen)
| 归档时间: |
|
| 查看次数: |
9163 次 |
| 最近记录: |