Linux核心转储太大了!

the*_*ine 8 linux coredump

最近我注意到我的应用程序生成的核心转储的大小增加了.最初,它们大小只有5MB左右,包含大约5个堆栈帧,现在我有2GB以上的核心转储,其中包含的信息与较小的转储没有区别.

有什么办法可以控制生成的核心转储的大小吗?它们不应该至少小于应用程序二进制文件本身吗?

二进制文件以这种方式编译:

  • 使用调试符号在发布模式下编译(即GCC中的-g编译器选项).
  • 调试符号被复制到
    单独的文件中并从
    二进制文件中剥离.
  • GNU调试符号链接添加到二进制文件中.

在应用程序开始时,有一个调用setrlimit将核心限制设置为无穷大 - 这是问题吗?

Dav*_*har 11

是的 - 不要分配这么多内存:-)

核心转储包含应用程序地址空间的完整映像,包括代码,堆栈和堆(malloc'd对象等)

如果您的核心转储大于2GB,这意味着在某些时候您分配了那么多内存.

您可以使用setrlimit设置核心转储大小的下限,但最终会导致无法解码的核心转储(因为它不完整).

  • 如果应用程序崩溃,而它有一个用`mmap`映射的大文件,那么你也会在转储中包含该文件. (2认同)

Chr*_*Lee 1

是的,setrlimit 就是您获得大型核心文件的原因。您可以在大多数 shell 中设置核心大小的限制,例如在 bash 中您可以这样做ulimit -c 5000000。但是,您的 setrlimit 调用将覆盖它。

/etc/security/limits.conf 也可用于设置核心大小的上限。

  • 我认为这个答案是误导性的,setrlimit 只是确保核心转储不大于通过截断指定的大小。核心转储的大小取决于应用程序已分配或映射的内存。 (6认同)