python:从压缩文本文件中读取行

del*_*unt 59 python compression large-files

是否很容易使用python从gz压缩的文本文件中读取一行而不完全提取文件?我有一个text.gz文件,它是200mb.当我提取它时,它变成7.4gb.这不是我必须阅读的唯一文件.对于整个过程,我必须阅读10个文件.虽然这将是一项顺序工作,但我认为在没有提取整个信息的情况下这样做是明智之举.我甚至不知道这是可能的.如何使用python完成?我需要逐行阅读文本文件.

ffe*_*rri 66

使用gzip.GzipFile:

import gzip

with gzip.open('input.gz','rt') as f:
    for line in f:
        print('got line', line)
Run Code Online (Sandbox Code Playgroud)

注意:gzip.open(filename, mode)是别名gzip.GzipFile(filename, mode).我更喜欢前者,因为它看起来类似于with open(...) as f:用于打开未压缩文件.

  • 对于python3,您必须指定要在'rt'中打开的文件,因为'r'默认为二进制读取. (29认同)

smi*_*hak 46

你可以在python中使用标准的gzip模块.只需使用:

gzip.open('myfile.gz')
Run Code Online (Sandbox Code Playgroud)

以任何其他文件打开文件并读取其行.

更多信息:Python gzip模块

  • 出于好奇,这会将整个文件加载到内存中吗?还是足够聪明以根据需要加载线路? (2认同)
  • @Sachin_ruk这不会加载文件,只会打开它。为了从文件中实际加载数据,您需要执行f.readline()一次读取一行。或f.readlines(N),其中N是要读取的行数。 (2认同)

jre*_*nie 18

你尝试过使用gzip.GzipFile吗?参数类似于open.


小智 7

gzip 库(显然)使用gzip,这可能有点慢。您可以通过系统调用Pigz(.NET 的并行化版本)来加快速度gzip。缺点是您必须安装pigz,并且在运行过程中需要更多内核,但它速度更快并且不会占用更多内存。然后,对该文件的调用将变为os.popen('pigz -dc ' + filename)而不是gzip.open(filename,'rt'). Pigz 标志用于-d解压缩和-c标准输出输出,然后可以通过os.popen.

以下代码接受一个文件和一个数字(1 或 2),并计算文件中不同调用的行数,同时测量代码所花费的时间。在 中定义以下代码unzip-file.py

#!/usr/bin/python
import os
import sys
import time
import gzip

def local_unzip(obj):
    t0 = time.time()
    count = 0
    with obj as f:
        for line in f:
            count += 1
    print(time.time() - t0, count)

r = sys.argv[1]
if sys.argv[2] == "1":
    local_unzip(gzip.open(r,'rt'))
else:
    local_unzip(os.popen('pigz -dc ' + r))
Run Code Online (Sandbox Code Playgroud)

调用这些 using/usr/bin/time -f %M来测量 28G 文件上进程的最大内存使用量,我们得到:

$ /usr/bin/time -f %M ./unzip-file.py $file 1
(3037.2604110240936, 1223422024)
5116

$ /usr/bin/time -f %M ./unzip-file.py $file 2
(598.771901845932, 1223422024)
4996
Run Code Online (Sandbox Code Playgroud)

显示使用基本相同的最大内存,系统调用速度大约快五倍(10 分钟与 50 分钟相比)。还值得注意的是,根据您在文件中每行读取的内容可能不是限制因素,在这种情况下,您采取的选项并不重要。