Sza*_*lcs 19 c++ linux windows performance benchmarking
解决方案:显然,罪魁祸首是使用floor(),其性能在glibc中依赖于操作系统.
这是前一个问题的后续问题:Linux上的程序速度比Windows快 - 为什么?
我有一个小的C++程序,当用nuwen gcc 4.6.1编译时,在Wine上比在Windows XP上运行得快得多(在同一台计算机上).问题:为什么会发生这种情况?
Wine和Windows的时间分别为~15.8和25.9秒.请注意,我在谈论相同的可执行文件,而不仅仅是相同的C++程序.
源代码在帖子的末尾.编译后的可执行文件在这里(如果你足够信任我).
这个特殊的程序没有任何用处,它只是一个最小的例子,从我有一个更大的程序.请参阅另一个问题,以获得原始程序的一些更精确的基准测试(重要!!)和最常见的可能性排除(例如其他程序在Windows上占用CPU,处理启动损失,系统调用的差异,如内存分配) .另请注意,虽然我在这里使用的rand()是简单,但在原版中我使用了自己的RNG,我知道它没有堆分配.
我在这个主题上提出一个新问题的原因是,现在我可以发布一个实际的简化代码示例来重现这个现象.
代码:
#include <cstdlib>
#include <cmath>
int irand(int top) {
return int(std::floor((std::rand() / (RAND_MAX + 1.0)) * top));
}
template<typename T>
class Vector {
T *vec;
const int sz;
public:
Vector(int n) : sz(n) {
vec = new T[sz];
}
~Vector() {
delete [] vec;
}
int size() const { return sz; }
const T & operator [] (int i) const { return vec[i]; }
T & operator [] (int i) { return vec[i]; }
};
int main() {
const int tmax = 20000; // increase this to make it run longer
const int m = 10000;
Vector<int> vec(150);
for (int i=0; i < vec.size(); ++i)
vec[i] = 0;
// main loop
for (int t=0; t < tmax; ++t)
for (int j=0; j < m; ++j) {
int s = irand(100) + 1;
vec[s] += 1;
}
return 0;
}
Run Code Online (Sandbox Code Playgroud)
UPDATE
似乎如果我irand()在上面替换某些确定性的东西,比如
int irand(int top) {
static int c = 0;
return (c++) % top;
}
Run Code Online (Sandbox Code Playgroud)
然后时间差消失了.我想要注意的是,在我的原始程序中,我使用了不同的RNG,而不是系统rand().我现在正在挖掘它的来源.
更新2
现在我用irand()相当于原始程序中的函数替换了函数.它有点冗长(算法来自Numerical Recipes),但重点是要显示没有系统库被明确地调用(除了可能通过floor()).但时间差仍然存在!
或许floor()可以归咎于?或者编译器生成其他东西的调用?
class ran1 {
static const int table_len = 32;
static const int int_max = (1u << 31) - 1;
int idum;
int next;
int *shuffle_table;
void propagate() {
const int int_quo = 1277731;
int k = idum/int_quo;
idum = 16807*(idum - k*int_quo) - 2836*k;
if (idum < 0)
idum += int_max;
}
public:
ran1() {
shuffle_table = new int[table_len];
seedrand(54321);
}
~ran1() {
delete [] shuffle_table;
}
void seedrand(int seed) {
idum = seed;
for (int i = table_len-1; i >= 0; i--) {
propagate();
shuffle_table[i] = idum;
}
next = idum;
}
double frand() {
int i = next/(1 + (int_max-1)/table_len);
next = shuffle_table[i];
propagate();
shuffle_table[i] = idum;
return next/(int_max + 1.0);
}
} rng;
int irand(int top) {
return int(std::floor(rng.frand() * top));
}
Run Code Online (Sandbox Code Playgroud)
编辑:事实证明,罪魁祸首是,floor()而不是rand()我怀疑 - 请参阅OP问题顶部的更新.
程序的运行时间由调用来控制rand().
因此,我认为这rand()是罪魁祸首.我怀疑底层函数是由WINE/Windows运行时提供的,并且这两个实现具有不同的性能特征.
测试此假设的最简单方法是简单地调用rand()循环,并在两个环境中为相同的可执行文件计时.
编辑我已经看了WINE源代码,这里是它的实现rand():
/*********************************************************************
* rand (MSVCRT.@)
*/
int CDECL MSVCRT_rand(void)
{
thread_data_t *data = msvcrt_get_thread_data();
/* this is the algorithm used by MSVC, according to
* http://en.wikipedia.org/wiki/List_of_pseudorandom_number_generators */
data->random_seed = data->random_seed * 214013 + 2531011;
return (data->random_seed >> 16) & MSVCRT_RAND_MAX;
}
Run Code Online (Sandbox Code Playgroud)
我无法访问Microsoft的源代码进行比较,但如果性能上的差异在于获取线程本地数据而不是RNG本身,那么我也不会感到惊讶.