我在gensim中有一个大型的经过预训练的Word2Vec模型,我想从中使用预训练的词向量作为Keras模型中的嵌入层。
问题在于嵌入量很大,而且我不需要大多数单词向量(因为我知道哪些单词可以作为输入出现)。因此,我想摆脱它们以减小嵌入层的大小。
有没有一种方法可以根据单词白名单来保留所需的单词矢量(包括对应的索引!)?
python gensim word2vec keras word-embedding
gensim ×1
keras ×1
python ×1
word-embedding ×1
word2vec ×1