Rug*_*rra 5 python performance multiprocessing
我需要读取一些非常大的文本文件(100+ Mb),使用正则表达式处理每一行并将数据存储到结构中.我的结构继承自defaultdict,它有一个read(self)方法,读取self.file_name文件.
看看这个非常简单(但不是真实的)的例子,我没有使用正则表达式,但我正在拆分行:
import multiprocessing
from collections import defaultdict
def SingleContainer():
return list()
class Container(defaultdict):
"""
this class store odd line in self["odd"] and even line in self["even"].
It is stupid, but it's only an example. In the real case the class
has additional methods that do computation on readen data.
"""
def __init__(self,file_name):
if type(file_name) != str:
raise AttributeError, "%s is not a string" % file_name
defaultdict.__init__(self,SingleContainer)
self.file_name = file_name
self.readen_lines = 0
def read(self):
f = open(self.file_name)
print "start reading file %s" % self.file_name
for line in f:
self.readen_lines += 1
values = line.split()
key = {0: "even", 1: "odd"}[self.readen_lines %2]
self[key].append(values)
print "readen %d lines from file %s" % (self.readen_lines, self.file_name)
def do(file_name):
container = Container(file_name)
container.read()
return container.items()
if __name__ == "__main__":
file_names = ["r1_200909.log", "r1_200910.log"]
pool = multiprocessing.Pool(len(file_names))
result = pool.map(do,file_names)
pool.close()
pool.join()
print "Finish"
Run Code Online (Sandbox Code Playgroud)
最后,我需要将每个结果加入一个Container中.重要的是保持线的顺序.返回值时,我的方法太慢了.好的解决方案 我在Linux上使用python 2.6
你可能遇到两个问题.
其中一个被提到:你一次读取多个文件.这些读取将最终交错,导致磁盘抖动.您希望一次读取整个文件,然后只对数据进行多线程处理.
其次,你正在攻击Python的多处理模块的开销.它实际上并不是使用线程,而是启动多个进程并通过管道序列化结果.这对于批量数据来说非常慢 - 事实上,它似乎比你在线程中所做的工作要慢(至少在这个例子中).这是由GIL引起的现实问题.
如果我修改不()返回无不是container.items()禁用额外的数据复制,这个例子是比单线程快,只要这些文件已经被缓存:
两个线程:0.36elapsed 168%CPU
一个线程(用map替换pool.map):0:00.52elapsed 98%CPU
不幸的是,GIL问题是根本性的,无法在Python内部解决.
多处理更适合面向 CPU 或内存的进程,因为在文件之间切换时,旋转驱动器的寻道时间会降低性能。要么将日志文件加载到快速闪存驱动器或某种内存磁盘(物理或虚拟)中,要么放弃多处理。