sha*_*oth 12 c++ memory memory-management duration
根据编译器的不同代码:
int main()
{
srand( 0 );
if( rand() ) {
char buffer[600 * 1024] = {};
printf( buffer );
} else {
char buffer[500 * 1024] = {};
printf( buffer );
}
return 0;
}
Run Code Online (Sandbox Code Playgroud)
当在最大堆栈大小等于1兆字节的系统上运行时,要么打印空字符串,要么在堆栈溢出时崩溃.
不同之处在于不同的编译器以不同方式分配自动存储.大多数编译器在函数start上为所有对象分配存储,因此在上面的代码中,它们分配600 + 400 = 1100千字节,这导致堆栈溢出.有些编译器更聪明,他们发现这两个数组永远不能同时访问,所以他们重用相同的内存,只分配600千字节,程序运行正常.
现在标准说(3.7/1)存储持续时间定义了存储的最小潜在寿命,然后(3.7.2/1)这些对象[具有自动持续时间]的存储持续到存在它们的块为止.
我不明白3.7/1和3.7.2/1是如何一起应用的.一个人说持续时间是最小的潜力,而另一个人明确表示持续到阻止存在.看起来根据第一种分配策略是合法的,但第二种要求只使用"重用"分配策略.
3.7/1和3.7.2/1如何共存?在最坏的情况下(第一个策略)分配比程序需要更多的内存是否合法?
我读了3.7 /作为不同存储classe(自动,静态,动态)的介绍性描述和定义,而不是每个的实现要求......然后在3.7.2/1中描述了automatich的实现要求.
阅读3.7.2/1它并不禁止它存在的时间比块存在的时间长(这只是最小值) - 恕我直言,这是编译器实现者关于可能的优化的开放...