为什么在C++中读取stdin的行比Python要慢得多?

JJC*_*JJC 1738 c++ python benchmarking iostream getline

我想比较使用Python和C++从stdin读取字符串的读取行,并且看到我的C++代码运行速度比等效的Python代码慢一个数量级,这让我很震惊.由于我的C++生锈了,我还不是专家Pythonista,请告诉我,如果我做错了什么或者我是否误解了什么.


(TLDR回答:包括声明:cin.sync_with_stdio(false)或者只是fgets改用.

TLDR结果:一直向下滚动到我的问题的底部并查看表格.)


C++代码:

#include <iostream>
#include <time.h>

using namespace std;

int main() {
    string input_line;
    long line_count = 0;
    time_t start = time(NULL);
    int sec;
    int lps;

    while (cin) {
        getline(cin, input_line);
        if (!cin.eof())
            line_count++;
    };

    sec = (int) time(NULL) - start;
    cerr << "Read " << line_count << " lines in " << sec << " seconds.";
    if (sec > 0) {
        lps = line_count / sec;
        cerr << " LPS: " << lps << endl;
    } else
        cerr << endl;
    return 0;
}

// Compiled with:
// g++ -O3 -o readline_test_cpp foo.cpp
Run Code Online (Sandbox Code Playgroud)

Python等价物:

#!/usr/bin/env python
import time
import sys

count = 0
start = time.time()

for line in  sys.stdin:
    count += 1

delta_sec = int(time.time() - start_time)
if delta_sec >= 0:
    lines_per_sec = int(round(count/delta_sec))
    print("Read {0} lines in {1} seconds. LPS: {2}".format(count, delta_sec,
       lines_per_sec))
Run Code Online (Sandbox Code Playgroud)

这是我的结果:

$ cat test_lines | ./readline_test_cpp
Read 5570000 lines in 9 seconds. LPS: 618889

$cat test_lines | ./readline_test.py
Read 5570000 lines in 1 seconds. LPS: 5570000
Run Code Online (Sandbox Code Playgroud)

我应该注意到我在Mac OS X v10.6.8(Snow Leopard)和Linux 2.6.32(Red Hat Linux 6.2)下都尝试了这一点.前者是MacBook Pro,后者是一个非常强大的服务器,而不是太过贴切.

$ for i in {1..5}; do echo "Test run $i at `date`"; echo -n "CPP:"; cat test_lines | ./readline_test_cpp ; echo -n "Python:"; cat test_lines | ./readline_test.py ; done
Test run 1 at Mon Feb 20 21:29:28 EST 2012
CPP:   Read 5570001 lines in 9 seconds. LPS: 618889
Python:Read 5570000 lines in 1 seconds. LPS: 5570000
Test run 2 at Mon Feb 20 21:29:39 EST 2012
CPP:   Read 5570001 lines in 9 seconds. LPS: 618889
Python:Read 5570000 lines in 1 seconds. LPS: 5570000
Test run 3 at Mon Feb 20 21:29:50 EST 2012
CPP:   Read 5570001 lines in 9 seconds. LPS: 618889
Python:Read 5570000 lines in 1 seconds. LPS: 5570000
Test run 4 at Mon Feb 20 21:30:01 EST 2012
CPP:   Read 5570001 lines in 9 seconds. LPS: 618889
Python:Read 5570000 lines in 1 seconds. LPS: 5570000
Test run 5 at Mon Feb 20 21:30:11 EST 2012
CPP:   Read 5570001 lines in 10 seconds. LPS: 557000
Python:Read 5570000 lines in  1 seconds. LPS: 5570000
Run Code Online (Sandbox Code Playgroud)

微小的基准附录和回顾

为了完整起见,我想我会使用原始(同步)C++代码在同一个盒子上更新同一文件的读取速度.同样,这是针对快速磁盘上的100M线路文件.这是比较,有几种解决方案/方法:

Implementation      Lines per second
python (default)           3,571,428
cin (default/naive)          819,672
cin (no sync)             12,500,000
fgets                     14,285,714
wc (not fair comparison)  54,644,808
Run Code Online (Sandbox Code Playgroud)

Vau*_*ato 1561

默认情况下,cin与stdio同步,这会导致它避免任何输入缓冲.如果将其添加到主页的顶部,您应该会看到更好的性能:

std::ios_base::sync_with_stdio(false);
Run Code Online (Sandbox Code Playgroud)

通常,当缓冲输入流时,不是一次读取一个字符,而是以更大的块读取流.这减少了系统调用的数量,这通常相对昂贵.但是,由于FILE*基于stdio并且iostreams通常具有单独的实现并因此具有单独的缓冲区,如果两者一起使用,这可能导致问题.例如:

int myvalue1;
cin >> myvalue1;
int myvalue2;
scanf("%d",&myvalue2);
Run Code Online (Sandbox Code Playgroud)

如果读取的输入cin多于实际需要的输入,则第二个整数值将不可用于scanf具有其自己的独立缓冲区的函数.这将导致意想不到的结果.

为避免这种情况,默认情况下,流与之同步stdio.实现此目的的一种常见方法是cin使用stdio函数根据需要一次读取一个字符.不幸的是,这引入了很多开销.对于少量输入,这不是一个大问题,但是当您阅读数百万行时,性能损失是显着的.

幸运的是,图书馆设计师决定,如果你知道自己在做什么,你也应该能够禁用这个功能以提高性能,因此他们提供了这种sync_with_stdio方法.

  • 这应该在顶部.这几乎肯定是正确的.答案不在于用`fscanf`调用替换读取,因为这很简单,并没有像Python那样做多少工作.Python必须为字符串分配内存,可能多次,因为现有的分配被认为是不合适的 - 就像使用`std :: string`的C++方法一样.这个任务几乎肯定是I/O绑定的,并且有很多关于在C++中创建`std :: string`对象或在其中使用`<iostream>`的成本的FUD. (135认同)
  • 请注意,`sync_with_stdio()`是一个静态成员函数,在任何流对象(例如`cin`)上对此函数的调用可以为*all*标准iostream对象打开或关闭同步. (53认同)
  • 是的,在我的原始循环上方添加此行,同时循环加速代码甚至超过python.我即将发布结果作为最终编辑.再次感谢! (48认同)
  • 是的,这实际上也适用于cout,cerr和clog. (5认同)
  • 为了使cout,cin,cerr和clog更快,这样做std :: ios_base :: sync_with_stdio(false); (2认同)

2mi*_*mia 158

出于好奇,我已经看过引擎盖下发生了什么,我在每次测试中都使用了dtruss/strace.

C++

./a.out < in
Saw 6512403 lines in 8 seconds.  Crunch speed: 814050
Run Code Online (Sandbox Code Playgroud)

系统调用 sudo dtruss -c ./a.out < in

CALL                                        COUNT
__mac_syscall                                   1
<snip>
open                                            6
pread                                           8
mprotect                                       17
mmap                                           22
stat64                                         30
read_nocancel                               25958
Run Code Online (Sandbox Code Playgroud)

蟒蛇

./a.py < in
Read 6512402 lines in 1 seconds. LPS: 6512402
Run Code Online (Sandbox Code Playgroud)

系统调用 sudo dtruss -c ./a.py < in

CALL                                        COUNT
__mac_syscall                                   1
<snip>
open                                            5
pread                                           8
mprotect                                       17
mmap                                           21
stat64                                         29
Run Code Online (Sandbox Code Playgroud)


小智 139

我在这里落后了几年,但是:

在原始帖子的"编辑4/5/6"中,您正在使用构造:

$ /usr/bin/time cat big_file | program_to_benchmark
Run Code Online (Sandbox Code Playgroud)

这有两种不同的方式:

  1. 你实际上计时执行'cat`,而不是你的基准.`time`显示的'user'和'sys'CPU使用率是`cat`,而不是你的基准程序.更糟糕的是,"真实"时间也不一定准确.根据本地操作系统中"cat"和管道的实现,"cat"可能会写入最终的巨型缓冲区,并在读取器进程完成其工作之前很久就会退出.

  2. 使用"猫"是不必要的,事实上适得其反; 你正在添加移动部件.如果你使用的是一个足够旧的系统(即使用单个CPU并且 - 在某些代码的计算机中 - I/O比CPU快) - "cat"运行的这一事实可能会使结果显着变色.你也受到任何输入和输出缓冲以及其他处理`cat`的影响.(如果我是Randal Schwartz,这可能会让你获得'无用的猫'奖.

更好的结构是:

$ /usr/bin/time program_to_benchmark < big_file
Run Code Online (Sandbox Code Playgroud)

在这个语句中,它是打开big_file 的shell,将它传递给你的程序(好吧,实际上是`time`然后执行你的程序作为子进程)作为已打开的文件描述符.100%的文件读取完全是您尝试进行基准测试的程序的责任.这可以让您真正了解其性能而不会出现虚假的并发症.

我将提到两个可能的,但实际上是错误的,"修复"也可以考虑(但我'他们'不同,因为这些不是原始帖子中的错误):

答:您可以通过仅计划您的计划来"修复"此问题:

$ cat big_file | /usr/bin/time program_to_benchmark
Run Code Online (Sandbox Code Playgroud)

B.或通过计时整个管道:

$ /usr/bin/time sh -c 'cat big_file | program_to_benchmark'
Run Code Online (Sandbox Code Playgroud)

出于与#2相同的原因,这些是错误的:他们仍然不必要地使用`cat`.我提到它们有几个原因:

  • 对于那些对POSIX shell的I/O重定向工具不太满意的人来说,它们更"自然"

  • 可能存在需要`cat` 情况(例如:要读取的文件需要某种特权才能访问,并且您不希望将该特权授予要进行基准测试的程序:`sudo cat/dev/sda |/usr/bin/time my_compression_test --no-output`)

  • 实际上,在现代机器上,管道中添加的"猫"可能没有实际意义

但我有点犹豫地说最后一件事.如果我们检查"编辑5"中的最后一个结果 -

$ /usr/bin/time cat temp_big_file | wc -l
0.01user 1.34system 0:01.83elapsed 74%CPU ...
Run Code Online (Sandbox Code Playgroud)

- 这声称`cat`在测试期间消耗了74%的CPU; 实际上1.34/1.83约为74%.也许是一阵:

$ /usr/bin/time wc -l < temp_big_file
Run Code Online (Sandbox Code Playgroud)

本来只剩下.49秒!可能不是:`cat`在这里必须支付read()系统调用(或等效),它从'disk'(实际上是缓冲区缓存)传输文件,以及管道写入将它们传递给`wc`.正确的测试仍然必须进行read()调用; 只保存了write-to-pipe和read-from-pipe调用,这些调用应该相当便宜.

不过,我预测你可以衡量`cat file |之间的区别 wc -l`和`wc -l <​​file`并找到明显的(2位数百分比)差异.每个较慢的测试都会在绝对时间内付出类似的代价; 然而,这将占其较长总时间的较小部分.

事实上,我在Linux 3.13(Ubuntu 14.04)系统上使用1.5千兆字节的垃圾文件进行了一些快速测试,获得了这些结果(这些实际上是"最好的3个"结果;当然是在启动缓存之后):

$ time wc -l < /tmp/junk
real 0.280s user 0.156s sys 0.124s (total cpu 0.280s)
$ time cat /tmp/junk | wc -l
real 0.407s user 0.157s sys 0.618s (total cpu 0.775s)
$ time sh -c 'cat /tmp/junk | wc -l'
real 0.411s user 0.118s sys 0.660s (total cpu 0.778s)
Run Code Online (Sandbox Code Playgroud)

请注意,两个管道结果声称占用的CPU时间(用户+ sys)比实时多.这是因为我使用shell(Bash)的内置'time'命令,它认识到了管道; 我在多核机器上,管道中的单独进程可以使用单独的内核,比实时更快地累积CPU时间.使用/ usr/bin/time我看到比实时更小的CPU时间 - 表明它只能在命令行上传递给它的单个管道元素.另外,shell的输出给出了毫秒,而/ usr/bin/time只给出了一秒的hundreth.

因此,在`wc -l`的效率级别,`cat`产生了巨大的差异:409/283 = 1.453或45.3%更多实时,775/280 = 2.768,或者使用的CPU高出177%!在我的随机它是在那时的测试框.

我应该补充一点,这些测试方式之间至少还有一个显着的区别,我不能说它是好处还是错误; 你必须自己决定:

当你运行`cat big_file |/usr/bin/time my_program`,你的程序正在接收来自管道的输入,正好是'cat`发送的速度,并且不大于`cat`所写的块.

运行`/ usr/bin/time my_program <big_file`时,程序会收到实际文件的打开文件描述符.您的程序 - 或者在许多情况下是编写它的语言的I/O库 - 在呈现引用常规文件的文件描述符时可能会采取不同的操作.它可以使用mmap(2)将输入文件映射到其地址空间,而不是使用显式的read(2)系统调用.这些差异对基准测试结果的影响要大于运行`cat`二进制文件的小成本.

当然,如果同一程序在两种情况下的表现有很大不同,那么这是一个有趣的基准测试结果.它表明,实际上,程序或其I/O库正在做一些有趣的事情,比如使用mmap().所以在实践中,以两种方式运行基准测试可能会很好; 或许用一些小因素来折扣"猫"结果,以"原谅"运行"猫"本身的成本.

  • 哇,这非常有见地!虽然我已经意识到cat不需要将输入提供给程序的stdin,并且<shell重定向是首选,但由于前一种方法在视觉上保留了从左到右的数据流,我通常会坚持使用cat.当我推理管道时.在我发现这种情况下的性能差异可以忽略不计.但是,我非常感谢你教育我们,贝拉. (25认同)
  • 重定向在早期阶段从shell命令行解析出来,如果它给出了从左到右流程更令人满意的外观,它允许你做其中一个:`$ <big_file time my_program`` $ time <big_file my_program`这应该适用于任何POSIX shell(即不是\`csh \`而且我不确定exotica如\`rc \`:) (10认同)
  • 我个人会避免提及,因为这并没有解决原始问题(注意在竞争的例子中使用cat是不变的).但是,再次感谢关于*nix的来龙去脉的知识分子讨论. (5认同)
  • 同样,除了由于同时运行的\`cat \`二进制文件而可能无趣的增量性能差异之外,您放弃了被测程序能够mmap()输入文件的可能性.这可能会对结果产生深远的影响.即使你自己用各种语言编写基准测试,只使用他们的"文件输入行"成语,这也是如此.这取决于各种I/O库的详细工作方式. (5认同)

kar*_*ski 88

我在Mac上使用g ++在计算机上复制了原始结果.

while循环之前将以下语句添加到C++版本使其与Python版本内联:

std::ios_base::sync_with_stdio(false);
char buffer[1048576];
std::cin.rdbuf()->pubsetbuf(buffer, sizeof(buffer));
Run Code Online (Sandbox Code Playgroud)

sync_with_stdio将速度提高到2秒,设置更大的缓冲区使其降低到1秒.

  • 我也避免在堆栈上设置1MB缓冲区.它可以导致stackoverflow(虽然我想这是一个讨论它的好地方!) (106认同)
  • @SEK Windows默认堆栈大小为1MB. (22认同)
  • Matthieu,Mac默认使用8MB进程堆栈.Linux每个线程默认使用4MB,IIRC.对于使用相对较浅的堆栈深度转换输入的程序,1MB并不是一个问题.更重要的是,如果缓冲区超出范围,std :: cin将废弃堆栈. (11认同)
  • 我的回答太仓促了; 将缓冲区大小设置为默认值以外的其他值不会产生明显的差异. (8认同)
  • 您可能希望尝试不同的缓冲区大小以获取更多有用的信息.我怀疑你会看到快速递减的回报. (5认同)

Stu*_*Stu 37

getline,scanf如果您不关心文件加载时间或加载小文本文件,则可以方便地使用流操作符.但是,如果性能是您关心的,那么您应该将整个文件缓冲到内存中(假设它适合).

这是一个例子:

//open file in binary mode
std::fstream file( filename, std::ios::in|::std::ios::binary );
if( !file ) return NULL;

//read the size...
file.seekg(0, std::ios::end);
size_t length = (size_t)file.tellg();
file.seekg(0, std::ios::beg);

//read into memory buffer, then close it.
char *filebuf = new char[length+1];
file.read(filebuf, length);
filebuf[length] = '\0'; //make it null-terminated
file.close();
Run Code Online (Sandbox Code Playgroud)

如果需要,可以在该缓冲区周围包装一个流,以便更方便地访问:

std::istrstream header(&filebuf[0], length);
Run Code Online (Sandbox Code Playgroud)

此外,如果您控制文件,请考虑使用平面二进制数据格式而不是文本.它的读写更可靠,因为你不必处理空白的所有歧义.解析时它也更小,速度更快.


Pet*_*ter 17

以下代码对我来说比目前为止发布的其他代码更快:( Visual Studio 2013,64位,500 MB文件,行长度统一为[0,1000)).

const int buffer_size = 500 * 1024;  // Too large/small buffer is not good.
std::vector<char> buffer(buffer_size);
int size;
while ((size = fread(buffer.data(), sizeof(char), buffer_size, stdin)) > 0) {
    line_count += count_if(buffer.begin(), buffer.begin() + size, [](char ch) { return ch == '\n'; });
}
Run Code Online (Sandbox Code Playgroud)

它击败我所有的Python尝试超过2倍.


Gre*_*egg 16

顺便说一下,C++版本的行数大于Python版本的行数的原因是eof标志仅在尝试读取超出eof时才设置.所以正确的循环是:

while (cin) {
    getline(cin, input_line);

    if (!cin.eof())
        line_count++;
};
Run Code Online (Sandbox Code Playgroud)

  • 真正正确的循环是:`while(getline(cin,input_line))line_count ++;` (67认同)
  • @val,如果有什么不同,则说明编译器存在错误。该变量是一个“ long”,并且编译器完全有能力告知未使用增量的结果。如果它不能为后增量和前增量生成相同的代码,那么它就坏了。 (4认同)

dav*_*chi 13

在你的第二个例子中(使用scanf()),为什么它仍然较慢可能是因为scanf("%s")解析字符串并查找任何空格char(空格,制表符,换行符).

此外,是的,CPython做了一些缓存以避免硬盘读取.


J.N*_*.N. 11

答案的第一个要素:<iostream>很慢.该死的慢.scanf如下所示,我获得了巨大的性能提升,但它仍然比Python慢​​两倍.

#include <iostream>
#include <time.h>
#include <cstdio>

using namespace std;

int main() {
    char buffer[10000];
    long line_count = 0;
    time_t start = time(NULL);
    int sec;
    int lps;

    int read = 1;
    while(read > 0) {
        read = scanf("%s", buffer);
        line_count++;
    };
    sec = (int) time(NULL) - start;
    line_count--;
    cerr << "Saw " << line_count << " lines in " << sec << " seconds." ;
    if (sec > 0) {
        lps = line_count / sec;
        cerr << "  Crunch speed: " << lps << endl;
    } 
    else
        cerr << endl;
    return 0;
}
Run Code Online (Sandbox Code Playgroud)

  • 修复c ++版本后,这个stdio版本比我计算机上的c ++ iostreams版本慢得多.(3秒vs 1秒) (9认同)
  • 同样在这里.同步到stdio是诀窍. (4认同)

Jos*_*uez 10

好吧,我看到你在第二个解决方案中转换cin到了scanf,这是我要给你的第一个建议(cin是sloooooooooooow).现在,如果你切换scanffgets,你会看到性能的另一个提升:fgets是字符串输入最快的C++函数.

BTW,不知道那个同步的东西,不错.但你还是应该试试fgets.


归档时间:

查看次数:

245899 次

最近记录:

6 年,8 月 前