sur*_*raj 2 python multiprocessing gensim word2vec python-multiprocessing
我正在尝试从维基百科文本数据训练 word2vec 模型,为此我使用以下代码。
import logging
import os.path
import sys
import multiprocessing
from gensim.corpora import WikiCorpus
from gensim.models import Word2Vec
from gensim.models.word2vec import LineSentence
if __name__ == '__main__':
program = os.path.basename(sys.argv[0])
logger = logging.getLogger(program)
logging.basicConfig(format='%(asctime)s : %(levelname)s : %(message)s')
logging.root.setLevel(level=logging.INFO)
logger.info("running %s" % ' '.join(sys.argv))
# check and process input arguments
if len(sys.argv) < 3:
print (globals()['__doc__'])
sys.exit(1)
inp, outp = sys.argv[1:3]
model = Word2Vec(LineSentence(inp), size=400, window=5, min_count=5, workers=multiprocessing.cpu_count())
# trim unneeded model memory = use (much) less RAM
model.init_sims(replace=True)
model.save(outp)
Run Code Online (Sandbox Code Playgroud)
但是在程序运行 20 分钟后,我收到以下错误
理想情况下,您应该将错误文本粘贴到问题中,而不是屏幕截图。但是,我看到了两条关键线:
<TIMESTAMP> : INFO : estimated required memory for 2372206 words and 400 dimensions: 8777162200 bytes
...
MemoryError: unable to allocate array with shape (2372206, 400) and data type float32
Run Code Online (Sandbox Code Playgroud)
在对您的语料库进行一次遍历后,该模型已经了解了将8777162200 bytes
保留多少唯一词,它报告必须分配多大的模型:一个大约(约 8.8GB)。但是,当尝试分配所需的向量数组时,您会得到一个MemoryError
,这表明没有足够的计算机可寻址内存 (RAM) 可用。
您可以:
您可以通过将默认min_count=5
参数增加为类似min_count=10
ormin_count=20
或 or来减少单词数min_count=50
。(您可能不需要超过 200 万个词向量——仅用几万个词的词汇表就可能产生许多有趣的结果。)
您还可以设置一个max_final_vocab
值,以指定要保留的唯一单词的确切数量。例如,max_final_vocab=500000
只保留 500000 个最常用的词,忽略其余词。
减少size
也将节省内存。的设置在size=300
词向量中很流行,可以将内存需求减少四分之一。
总之,使用size=300, max_final_vocab=500000
应该将所需的内存修剪到 2GB 以下。
归档时间: |
|
查看次数: |
26639 次 |
最近记录: |