小编csw*_*ney的帖子

训练文本语料库太大而无法加载到内存中

我创建了一个 2 层 LSTM 模型,我想在最近转储的英文维基百科文章(15.1 GB 文本)上对其进行训练。我无法将语料库加载到文本变量中以进行单词嵌入。Keras RNN 模型通常如何在如此庞大的文本语料库上进行训练以避免内存错误?

尝试使用以下命令打开 15.1 GB 文件后:

text = open('/home/connor/Desktop/wiki_en.txt').read().lower()
Run Code Online (Sandbox Code Playgroud)

我收到此错误消息:

(结果,消耗)= self._buffer_decode(数据,self.errors,最终)MemoryError

python out-of-memory lstm keras recurrent-neural-network

5
推荐指数
1
解决办法
1428
查看次数