red*_*edb 5 memory-management out-of-memory tensorflow tflearn
我有一个MNIST
类似的数据集,不适合内存(进程内存,而不是 GPU内存)。我的数据集是 4GB。
这不是TFLearn
问题。
据我所知,和需要model.fit
一个数组。x
y
TFLearn 示例:
model.fit(x, y, n_epoch=10, validation_set=(val_x, val_y))
我想知道是否有一种方法可以传递“批量迭代器”,而不是数组。基本上对于每个批次,我都会从磁盘加载必要的数据。
这样我就不会遇到进程内存溢出错误。
编辑
np.memmap
可能是一种选择。但我不知道如何跳过组成标头的前几个字节。
归档时间: |
|
查看次数: |
4684 次 |
最近记录: |