可能是一个愚蠢的问题.我注意到在Linux机器上运行一个简单Hello World程序时执行时间的差异C(虽然它不是语言特定的).
程序:
#include<stdio.h>
#include<time.h>
int main()
{
clock_t begin, end;
double time_spent;
begin = clock();
printf("%s", "Hello World\n");
end = clock();
time_spent = (double)(end - begin) / CLOCKS_PER_SEC;
printf("%f\n", time_spent);
return 0;
}
Run Code Online (Sandbox Code Playgroud)
O/P:
$ ./hello
Hello World
0.000061
$ ./hello
Hello World
0.000057
$ ./hello
Hello World
0.000099
Run Code Online (Sandbox Code Playgroud)
这是在四核机器上测试的,平均负载为0.4,并且有足够的可用内存.虽然差别很小,但背后的原因可能是什么?