为什么加载这个文件占用这么多内存?

Ham*_*amy 5 python memory-management

试图将文件加载到python中.这是一个非常大的文件(1.5Gb),但我有可用的内存,我只想做一次(因此使用python,我只需要对文件进行一次排序,因此python是一个简单的选择).

我的问题是,加载该文件导致的方式,以多大的内存使用情况.当我将大约10%的行加载到内存中时,Python已经使用了700Mb,这显然太多了.脚本挂起大约50%,使用3.03 Gb的实内存(并缓慢上升).

我知道这不是排序文件最有效的方法(内存方式),但我只是想让它工作,所以我可以继续处理更重要的问题:D所以,下面的python代码导致了什么问题大量内存使用:

print 'Loading file into memory'
input_file = open(input_file_name, 'r')
input_file.readline() # Toss out the header
lines = []
totalLines = 31164015.0
currentLine = 0.0
printEvery100000 = 0
for line in input_file:
    currentLine += 1.0
    lined = line.split('\t')
    printEvery100000 += 1
    if printEvery100000 == 100000:
        print str(currentLine / totalLines)
        printEvery100000 = 0;
    lines.append( (lined[timestamp_pos].strip(), lined[personID_pos].strip(), lined[x_pos].strip(), lined[y_pos].strip()) )
input_file.close()
print 'Done loading file into memory'
Run Code Online (Sandbox Code Playgroud)

编辑:如果有人不确定,普遍的共识似乎是每个分配的变量会占用越来越多的内存.我在这种情况下"修复"了1)调用readLines(),它仍然加载所有数据,但每行只有一个'string'变量开销.这使用大约1.7Gb加载整个文件.然后,当我调用lines.sort()时,我将一个函数传递给key,该函数在选项卡上分割并返回正确的列值,转换为int.这在计算上是缓慢的,并且总体上是内存密集型的,但它可以工作.今天学到了关于变量分配的大量报道:D

sam*_*ias 3

以下是根据从示例中得出的常量对所需内存的粗略估计。至少,您必须计算每个分割线的 Python 内部对象开销,加上每个字符串的开销。

它估计9.1 GB将文件存储在内存中,假设以下常量,这些常量有点偏离,因为您只使用了每行的一部分:

  • 文件大小 1.5 GB
  • 总行数 31,164,015
  • 每行分成 4 部分的列表

代码:

import sys
def sizeof(lst):
    return sys.getsizeof(lst) + sum(sys.getsizeof(v) for v in lst)

GIG = 1024**3
file_size = 1.5 * GIG
lines = 31164015
num_cols = 4
avg_line_len = int(file_size / float(lines))

val = 'a' * (avg_line_len / num_cols)
lst = [val] * num_cols

line_size = sizeof(lst)
print 'avg line size: %d bytes' % line_size
print 'approx. memory needed: %.1f GB' % ((line_size * lines) / float(GIG))
Run Code Online (Sandbox Code Playgroud)

返回:

avg line size: 312 bytes
approx. memory needed: 9.1 GB
Run Code Online (Sandbox Code Playgroud)