协慌网

登录 贡献 社区

为什么在 C ++ 中读取 stdin 的行比 Python 要慢得多?

我想比较使用 Python 和 C ++ 从 stdin 读取字符串的读取行,并且看到我的 C ++ 代码比同等的 Python 代码运行慢一个数量级时感到震惊。由于我的 C ++ 生锈了,我还不是专家 Pythonista,请告诉我,如果我做错了什么或者我是否误解了什么。


(TLDR 回答:包含声明: cin.sync_with_stdio(false)或仅使用fgets

TLDR 结果:一直向下滚动到我的问题的底部并查看表格。)


C ++ 代码:

#include <iostream>
#include <time.h>

using namespace std;

int main() {
    string input_line;
    long line_count = 0;
    time_t start = time(NULL);
    int sec;
    int lps;

    while (cin) {
        getline(cin, input_line);
        if (!cin.eof())
            line_count++;
    };

    sec = (int) time(NULL) - start;
    cerr << "Read " << line_count << " lines in " << sec << " seconds.";
    if (sec > 0) {
        lps = line_count / sec;
        cerr << " LPS: " << lps << endl;
    } else
        cerr << endl;
    return 0;
}

// Compiled with:
// g++ -O3 -o readline_test_cpp foo.cpp

Python 等价物:

#!/usr/bin/env python
import time
import sys

count = 0
start = time.time()

for line in  sys.stdin:
    count += 1

delta_sec = int(time.time() - start_time)
if delta_sec >= 0:
    lines_per_sec = int(round(count/delta_sec))
    print("Read {0} lines in {1} seconds. LPS: {2}".format(count, delta_sec,
       lines_per_sec))

这是我的结果:

$ cat test_lines | ./readline_test_cpp
Read 5570000 lines in 9 seconds. LPS: 618889

$cat test_lines | ./readline_test.py
Read 5570000 lines in 1 seconds. LPS: 5570000

我应该注意到我在 Mac OS X v10.6.8(Snow Leopard)和 Linux 2.6.32(Red Hat Linux 6.2)下都尝试过这一点。前者是 MacBook Pro,后者是一个非常强大的服务器,而不是太过贴切。

$ for i in {1..5}; do echo "Test run $i at `date`"; echo -n "CPP:"; cat test_lines | ./readline_test_cpp ; echo -n "Python:"; cat test_lines | ./readline_test.py ; done
Test run 1 at Mon Feb 20 21:29:28 EST 2012
CPP:   Read 5570001 lines in 9 seconds. LPS: 618889
Python:Read 5570000 lines in 1 seconds. LPS: 5570000
Test run 2 at Mon Feb 20 21:29:39 EST 2012
CPP:   Read 5570001 lines in 9 seconds. LPS: 618889
Python:Read 5570000 lines in 1 seconds. LPS: 5570000
Test run 3 at Mon Feb 20 21:29:50 EST 2012
CPP:   Read 5570001 lines in 9 seconds. LPS: 618889
Python:Read 5570000 lines in 1 seconds. LPS: 5570000
Test run 4 at Mon Feb 20 21:30:01 EST 2012
CPP:   Read 5570001 lines in 9 seconds. LPS: 618889
Python:Read 5570000 lines in 1 seconds. LPS: 5570000
Test run 5 at Mon Feb 20 21:30:11 EST 2012
CPP:   Read 5570001 lines in 10 seconds. LPS: 557000
Python:Read 5570000 lines in  1 seconds. LPS: 5570000

微小的基准附录和回顾

为了完整起见,我想我会使用原始(同步)C ++ 代码在同一个盒子上更新同一文件的读取速度。同样,这是针对快速磁盘上的 100M 线路文件。这是比较,有几种解决方案 / 方法:

Implementation      Lines per second
python (default)           3,571,428
cin (default/naive)          819,672
cin (no sync)             12,500,000
fgets                     14,285,714
wc (not fair comparison)  54,644,808

答案

默认情况下, cin与 stdio 同步,这会导致它避免任何输入缓冲。如果将其添加到主页的顶部,您应该会看到更好的性能:

std::ios_base::sync_with_stdio(false);

通常,当缓冲输入流时,不是一次读取一个字符,而是以更大的块读取流。这减少了系统调用的数量,这通常相对昂贵。但是,由于基于FILE*stdioiostreams通常具有单独的实现,因此具有单独的缓冲区,如果两者一起使用,则可能导致问题。例如:

int myvalue1;
cin >> myvalue1;
int myvalue2;
scanf("%d",&myvalue2);

如果cin读取的输入多于实际需要的输入,则第二个整数值将不可用于scanf函数,该函数具有自己的独立缓冲区。这将导致意想不到的结果。

为避免这种情况,默认情况下,流与stdio同步。实现此目的的一种常见方法是使用stdio函数根据需要使cin读取一个字符。不幸的是,这引入了很多开销。对于少量输入,这不是一个大问题,但是当您阅读数百万行时,性能损失是显着的。

幸运的是,图书馆设计者决定,如果你知道自己在做什么,你也应该能够禁用这个功能来提高性能,所以他们提供了sync_with_stdio方法。

出于好奇,我已经看看引擎盖下发生了什么,我在每次测试中都使用了dtruss / strace

C ++

./a.out < in
Saw 6512403 lines in 8 seconds.  Crunch speed: 814050

系统调用sudo dtruss -c ./a.out < in

CALL                                        COUNT
__mac_syscall                                   1
<snip>
open                                            6
pread                                           8
mprotect                                       17
mmap                                           22
stat64                                         30
read_nocancel                               25958

蟒蛇

./a.py < in
Read 6512402 lines in 1 seconds. LPS: 6512402

系统调用sudo dtruss -c ./a.py < in

CALL                                        COUNT
__mac_syscall                                   1
<snip>
open                                            5
pread                                           8
mprotect                                       17
mmap                                           21
stat64                                         29

我在这里落后了几年,但是:

在原始帖子的 “编辑 4/5/6” 中,您正在使用构造:

$ /usr/bin/time cat big_file | program_to_benchmark

这有两种不同的方式:

  1. 你实际上计时执行'cat`,而不是你的基准。 `time` 显示的'user'和'sys'CPU 使用率是 `cat`,而不是你的基准程序。更糟糕的是,“真实” 时间也不一定准确。根据本地操作系统中 “cat” 和管道的实现,“cat” 可能会写入最终的巨型缓冲区,并在读取器进程完成其工作之前很久就会退出。

  2. 使用 “猫” 是不必要的,实际上适得其反; 你正在添加移动部件。如果你使用的是一个足够旧的系统(即使用单个 CPU 并且 - 在某些代码的计算机中 - I / O 比 CPU 快) - “cat” 运行这一事实可能会对结果产生很大的影响。你也受到任何输入和输出缓冲以及其他处理 `cat` 的影响。 (如果我是 Randal Schwartz,这可能会让你获得'无用的猫'奖。

更好的结构是:

$ /usr/bin/time program_to_benchmark < big_file

在这个语句中,它是打开 big_file 的shell ,将它传递给你的程序(好吧,实际上是 `time` 然后将你的程序作为子进程执行)作为已打开的文件描述符。 100%的文件读取完全是您尝试进行基准测试的程序的责任。这可以让您真正了解其性能而不会出现虚假的并发症。

我将提到两个可能的,但实际上是错误的,“修复” 也可以考虑(但我 '他们' 不同,因为这些不是原始帖子中的错误):

答:您可以通过仅计时您的程序来 “修复” 此问题:

$ cat big_file | /usr/bin/time program_to_benchmark

B. 或通过计时整个管道:

$ /usr/bin/time sh -c 'cat big_file | program_to_benchmark'

出于与#2 相同的原因,这些是错误的:他们仍然不必要地使用 `cat`。我提到它们有几个原因:

  • 对于那些对 POSIX shell 的 I / O 重定向工具不太满意的人来说,它们更 “自然”

  • 可能存在需要 `cat` 情况(例如:要读取的文件需要某种特权才能访问,并且您不希望将该特权授予要进行基准测试的程序:`sudo cat / dev / sda | / usr / bin / time my_compression_test --no-output`)

  • 实际上 ,在现代机器上,管道中添加的 “猫” 可能没有实际意义

但我有点犹豫地说最后一件事。如果我们检查 “编辑 5” 中的最后一个结果 -

$ /usr/bin/time cat temp_big_file | wc -l
0.01user 1.34system 0:01.83elapsed 74%CPU ...

- 这声称 `cat` 在测试期间消耗了 74%的 CPU; 实际上 1.34 / 1.83 约为 74%。也许是一阵:

$ /usr/bin/time wc -l < temp_big_file

本来只剩下. 49 秒!可能不是:`cat` 在这里必须支付 read()系统调用(或等效),它从'disk'(实际上是缓冲区缓存)传输文件,以及管道写入将它们传递给 `wc`。正确的测试仍然必须执行 read()调用; 只保存了 write-to-pipe 和 read-from-pipe 调用,而且这些调用应该相当便宜。

不过,我预测你可以衡量 `cat file | 之间的区别 wc -l` 和 `wc -l <​​file` 并找到明显的(2 位数百分比)差异。每个较慢的测试都会在绝对时间内付出类似的代价; 然而,这将占其较长总时间的较小部分。

事实上,我在 Linux 3.13(Ubuntu 14.04)系统上使用 1.5 千兆字节的垃圾文件进行了一些快速测试,获得了这些结果(这些实际上是 “最好的 3 个” 结果; 当然,在启动缓存之后):

$ time wc -l < /tmp/junk
real 0.280s user 0.156s sys 0.124s (total cpu 0.280s)
$ time cat /tmp/junk | wc -l
real 0.407s user 0.157s sys 0.618s (total cpu 0.775s)
$ time sh -c 'cat /tmp/junk | wc -l'
real 0.411s user 0.118s sys 0.660s (total cpu 0.778s)

请注意,两个管道结果声称占用的 CPU 时间(用户 + sys)比实时多。这是因为我正在使用 shell(Bash)的内置'time' 命令,它可以识别管道; 我在多核机器上,管道中的单独进程可以使用单独的内核,比实时更快地累积 CPU 时间。使用 / usr / bin / time 我看到比实时更小的 CPU 时间 - 表明它只能在命令行上传递给它的单个管道元素。另外,shell 的输出给出了毫秒,而 / usr / bin / time 只给出了一秒的 hundreth。

因此,在 `wc -l` 的效率级别,`cat` 产生了巨大的差异:409/283 = 1.453 或 45.3%更多实时,775/280 = 2.768,或者使用的 CPU 高出 177%!在我的随机它是在那时的测试框。

我应该补充一点,这些测试方式之间至少还有一个显着的区别,我不能说它是好处还是错误; 你必须自己决定:

当你运行 `cat big_file | / usr / bin / time my_program`,你的程序正在接收来自管道的输入,正好是'cat` 发送的速度,并且块不大于 `cat` 所写的块。

当您运行 `/ usr / bin / time my_program 或者在许多情况下是编写它的语言的 I / O 库 - 在呈现引用常规文件的文件描述符时可能会采取不同的操作。它可以使用 mmap(2)将输入文件映射到其地址空间,而不是使用显式的 read(2)系统调用。这些差异对基准测试结果的影响要大于运行 `cat` 二进制文件的小成本。

当然,如果同一程序在两种情况下的表现差别很大,那么这是一个有趣的基准测试结果。它表明,实际上,程序或其 I / O 库正在做一些有趣的事情,比如使用 mmap()。所以在实践中,以两种方式运行基准测试可能会很好; 或许用一些小因素来折扣 “猫” 结果,以 “原谅” 运行 “猫” 本身的成本。