Kun*_*Kun 9 neural-network word2vec
当我正在阅读Tomas Mikolov的一篇论文时:http://arxiv.org/pdf/1301.3781.pdf
我对"连续词袋模型"部分有一个担忧:
第一个提出的体系结构类似于前馈NNLM,其中去除了非线性隐藏层,并且所有单词(不仅仅是投影矩阵)共享投影层.因此,所有单词都被投射到相同的位置(它们的向量被平均).
我发现有些人提到Word2Vec模型中有一个隐藏层,但根据我的理解,该模型中只有一个投影层.此投影图层是否与隐藏图层完成相同的工作?
另一个问题是如何将输入数据投影到投影层?
"投影层是所有单词(不仅仅是投影矩阵)共享的",这意味着什么?