如何在python中循环遍历大型数据集而不会出现MemoryError?

Jam*_*mes 10 python memory

我有一大系列栅格数据集,代表了几十年来的月降雨量.我用Python编写了一个循环遍历每个栅格的脚本并执行以下操作:

  1. 将栅格转换为numpy蒙版数组,
  2. 执行大量的数组代数来计算新的水位,
  3. 将结果写入输出栅格.
  4. 重复

该脚本只是一个由循环语句包围的数组代数方程列表.

如果我只是在我的数据的一小部分(比如说20年的价值)上运行脚本,那么一切都运行良好,但如果我尝试处理整个数据,我会得到一个MemoryError.该错误没有提供任何更多的信息(除了它突出显示Python放弃的代码中的行).

不幸的是,我不能轻易地处理我的数据 - 我真的需要能够一次完成所有的工作.这是因为,在每次迭代结束时,输出(水位)被反馈到下一次迭代中作为起始点.

我对编程的理解目前非常基础,但我认为我的所有对象都会在每个循环中被覆盖.我(愚蠢地?)假设如果代码设法成功循环一次,那么它应该能够无限循环而不会占用越来越多的内存.

我已经尝试过阅读各种文档并发现了一些名为"垃圾收集器"的东西,但我觉得我已经超出了我的深度并且我的大脑正在融化!任何人都能提供一些基本的见解,当我的代码循环时,内存中的对象实际发生了什么?有没有一种方法可以在每个循环结束时释放内存,还是有更多的"Pythonic"编码方式可以完全避免这个问题?

Joc*_*zel 5

您不需要关心内存管理,尤其是垃圾收集器,它具有您很可能甚至不使用的非常特定的任务.Python将始终收集它可以存储的内存并重用它.

您的问题只有两个原因:您尝试加载的数据太多而无法容纳到内存中,或者您的计算在某处存储数据(列表,字典,迭代之间持久存在的东西)以及存储增长和增长.内存分析器可以帮助您找到它.


小智 4

“强制”垃圾收集器清理临时仅循环对象的快速方法是 del 语句:

for obj in list_of_obj:   
    data = obj.getData()  
    do_stuff(data)   
    del data 
Run Code Online (Sandbox Code Playgroud)

这会强制解释器删除并释放临时对象。注意:这并不能确保程序不会泄漏或消耗计算其他部分的内存,这只是一个快速检查