Lem*_*mon 6 python gensim word2vec language-model word-embedding
我正在研究一种复发语言模型.要学习可用于初始化我的语言模型的单词嵌入,我使用的是gensim的word2vec模型.训练之后,word2vec模型为词汇表中的每个单词保存两个向量:单词嵌入(输入/隐藏矩阵的行)和上下文嵌入(隐藏/输出矩阵的列).
作为概括这个帖子有这两个嵌入矢量组合至少三种常用的方法:
但是,我找不到关于最佳策略的适当论文或报告.所以我的问题是:
相关(但未答复)的问题: