jmh*_*jmh 445
RSS是驻留集大小,用于显示分配给该进程的内存量,并且位于RAM中.它不包括换出的内存.它确实包括来自共享库的内存,只要这些库中的页面实际上在内存中.它确实包括所有堆栈和堆内存.
VSZ是虚拟内存大小.它包括进程可以访问的所有内存,包括被换出的内存,已分配但未使用的内存以及来自共享库的内存.
因此,如果进程A具有500K二进制文件并且链接到2500K共享库,则具有200K的堆栈/堆分配,其中100K实际上在内存中(其余是交换或未使用),并且它实际上只加载了1000K的共享库然后是400K自己的二进制文件:
RSS: 400K + 1000K + 100K = 1500K
VSZ: 500K + 2500K + 200K = 3200K
Run Code Online (Sandbox Code Playgroud)
由于部分内存是共享的,因此许多进程可能会使用它,因此如果将所有RSS值相加,您可以轻松获得比系统更多的空间.
在程序实际使用之前,分配的内存也可能不在RSS中.因此,如果你的程序预先分配了一堆内存,然后随着时间的推移使用它,你可以看到RSS上升,VSZ保持不变.
还有PSS(比例设定大小).这是一种较新的度量,它将共享内存跟踪为当前进程使用的比例.因此,如果有两个进程使用之前的相同共享库:
PSS: 400K + (1000K/2) + 100K = 400K + 500K + 100K = 1000K
Run Code Online (Sandbox Code Playgroud)
线程都共享相同的地址空间,因此每个线程的RSS,VSZ和PSS与进程中的所有其他线程相同.使用ps或top在linux/unix中查看此信息.
除此之外还有更多方法,了解更多信息请查看以下参考资料:
另见:
caf*_*caf 48
RSS是驻留集大小(物理驻留内存 - 当前占用机器物理内存中的空间),VSZ是虚拟内存大小(分配地址空间 - 这个地址在进程的内存映射中分配,但不一定有现在它背后的实际记忆).
请注意,在普通虚拟机的这些日子里,来自机器视点的物理内存可能并不真正是实际的物理内存.
Cir*_*四事件 24
最小的可运行示例
为此,您必须了解分页的基础知识:x86 分页是如何工作的?尤其是操作系统可以通过页表/其内部内存簿记(VSZ 虚拟内存)分配虚拟内存,然后才实际在 RAM 或磁盘(RSS 驻留内存)上拥有后备存储。
现在为了观察这一点,让我们创建一个程序:
mmap主文件
#define _GNU_SOURCE
#include <assert.h>
#include <inttypes.h>
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <sys/mman.h>
#include <unistd.h>
typedef struct {
unsigned long size,resident,share,text,lib,data,dt;
} ProcStatm;
/* /sf/ask/109088171/#7212248 */
void ProcStat_init(ProcStatm *result) {
const char* statm_path = "/proc/self/statm";
FILE *f = fopen(statm_path, "r");
if(!f) {
perror(statm_path);
abort();
}
if(7 != fscanf(
f,
"%lu %lu %lu %lu %lu %lu %lu",
&(result->size),
&(result->resident),
&(result->share),
&(result->text),
&(result->lib),
&(result->data),
&(result->dt)
)) {
perror(statm_path);
abort();
}
fclose(f);
}
int main(int argc, char **argv) {
ProcStatm proc_statm;
char *base, *p;
char system_cmd[1024];
long page_size;
size_t i, nbytes, print_interval, bytes_since_last_print;
int snprintf_return;
/* Decide how many ints to allocate. */
if (argc < 2) {
nbytes = 0x10000;
} else {
nbytes = strtoull(argv[1], NULL, 0);
}
if (argc < 3) {
print_interval = 0x1000;
} else {
print_interval = strtoull(argv[2], NULL, 0);
}
page_size = sysconf(_SC_PAGESIZE);
/* Allocate the memory. */
base = mmap(
NULL,
nbytes,
PROT_READ | PROT_WRITE,
MAP_SHARED | MAP_ANONYMOUS,
-1,
0
);
if (base == MAP_FAILED) {
perror("mmap");
exit(EXIT_FAILURE);
}
/* Write to all the allocated pages. */
i = 0;
p = base;
bytes_since_last_print = 0;
/* Produce the ps command that lists only our VSZ and RSS. */
snprintf_return = snprintf(
system_cmd,
sizeof(system_cmd),
"ps -o pid,vsz,rss | awk '{if (NR == 1 || $1 == \"%ju\") print}'",
(uintmax_t)getpid()
);
assert(snprintf_return >= 0);
assert((size_t)snprintf_return < sizeof(system_cmd));
bytes_since_last_print = print_interval;
do {
/* Modify a byte in the page. */
*p = i;
p += page_size;
bytes_since_last_print += page_size;
/* Print process memory usage every print_interval bytes.
* We count memory using a few techniques from:
* /sf/ask/109088171/ */
if (bytes_since_last_print > print_interval) {
bytes_since_last_print -= print_interval;
printf("extra_memory_committed %lu KiB\n", (i * page_size) / 1024);
ProcStat_init(&proc_statm);
/* Check /proc/self/statm */
printf(
"/proc/self/statm size resident %lu %lu KiB\n",
(proc_statm.size * page_size) / 1024,
(proc_statm.resident * page_size) / 1024
);
/* Check ps. */
puts(system_cmd);
system(system_cmd);
puts("");
}
i++;
} while (p < base + nbytes);
/* Cleanup. */
munmap(base, nbytes);
return EXIT_SUCCESS;
}
Run Code Online (Sandbox Code Playgroud)
编译并运行:
gcc -ggdb3 -O0 -std=c99 -Wall -Wextra -pedantic -o main.out main.c
echo 1 | sudo tee /proc/sys/vm/overcommit_memory
sudo dmesg -c
./main.out 0x1000000000 0x200000000
echo $?
sudo dmesg
Run Code Online (Sandbox Code Playgroud)
在哪里:
echo 1 | sudo tee /proc/sys/vm/overcommit_memory: Linux 需要允许我们进行大于物理 RAM 的 mmap 调用:malloc 可以分配的最大内存程序输出:
extra_memory_committed 0 KiB
/proc/self/statm size resident 67111332 768 KiB
ps -o pid,vsz,rss | awk '{if (NR == 1 || $1 == "29827") print}'
PID VSZ RSS
29827 67111332 1648
extra_memory_committed 8388608 KiB
/proc/self/statm size resident 67111332 8390244 KiB
ps -o pid,vsz,rss | awk '{if (NR == 1 || $1 == "29827") print}'
PID VSZ RSS
29827 67111332 8390256
extra_memory_committed 16777216 KiB
/proc/self/statm size resident 67111332 16778852 KiB
ps -o pid,vsz,rss | awk '{if (NR == 1 || $1 == "29827") print}'
PID VSZ RSS
29827 67111332 16778864
extra_memory_committed 25165824 KiB
/proc/self/statm size resident 67111332 25167460 KiB
ps -o pid,vsz,rss | awk '{if (NR == 1 || $1 == "29827") print}'
PID VSZ RSS
29827 67111332 25167472
Killed
Run Code Online (Sandbox Code Playgroud)
退出状态:
137
Run Code Online (Sandbox Code Playgroud)
其中由128点+信号编号规则的手段,我们得到的信号数9,这man 7 signal说的是SIGKILL,这是由Linux发外的内存杀手。
输出解释:
printf '0x%X\n' 0x40009A4 KiB ~= 64GiB(ps值以 KiB 为单位)。extra_memory_committed 0,这意味着我们还没有触及任何页面。RSS 是一个小型的1648 KiB,已分配给正常的程序启动,如文本区域、全局变量等。8388608 KiB == 8GiB很多页。结果,RSS 增加了 8GIB 到8390256 KiB == 8388608 KiB + 1648 KiB另见:https : //unix.stackexchange.com/questions/35129/need-explanation-on-resident-set-size-virtual-size
OOM 杀手日志
我们的dmesg命令已经显示了 OOM 杀手日志。
已经在以下位置询问了对这些的确切解释:
日志的第一行是:
[ 7283.479087] mongod invoked oom-killer: gfp_mask=0x6200ca(GFP_HIGHUSER_MOVABLE), order=0, oom_score_adj=0
Run Code Online (Sandbox Code Playgroud)
所以我们看到有趣的是,首先触发 OOM 杀手的是始终在我的笔记本电脑中后台运行的 MongoDB 守护进程,大概是当这个可怜的东西试图分配一些内存时。
然而,OOM 杀手并不一定会杀死唤醒它的人。
调用后,内核打印一个表或进程,包括oom_score:
[ 7283.479292] [ pid ] uid tgid total_vm rss pgtables_bytes swapents oom_score_adj name
[ 7283.479303] [ 496] 0 496 16126 6 172032 484 0 systemd-journal
[ 7283.479306] [ 505] 0 505 1309 0 45056 52 0 blkmapd
[ 7283.479309] [ 513] 0 513 19757 0 57344 55 0 lvmetad
[ 7283.479312] [ 516] 0 516 4681 1 61440 444 -1000 systemd-udevd
Run Code Online (Sandbox Code Playgroud)
再往前走,我们看到我们自己的小家伙main.out实际上在之前的调用中被杀死了:
[ 7283.479871] Out of memory: Kill process 15665 (main.out) score 865 or sacrifice child
[ 7283.479879] Killed process 15665 (main.out) total-vm:67111332kB, anon-rss:92kB, file-rss:4kB, shmem-rss:30080832kB
[ 7283.479951] oom_reaper: reaped process 15665 (main.out), now anon-rss:0kB, file-rss:0kB, shmem-rss:30080832kB
Run Code Online (Sandbox Code Playgroud)
该日志提到了score 865该进程具有的最高(最差)OOM 杀手分数,如:https : //unix.stackexchange.com/questions/153585/how-does-the-oom-killer-decide-which-先终止进程
同样有趣的是,一切显然发生得如此之快,以至于在释放的内存被计算出来之前,进程oom再次唤醒了它DeadlineMonitor:
[ 7283.481043] DeadlineMonitor invoked oom-killer: gfp_mask=0x6200ca(GFP_HIGHUSER_MOVABLE), order=0, oom_score_adj=0
Run Code Online (Sandbox Code Playgroud)
这一次杀死了一些 Chromium 进程,这通常是我的计算机正常的内存占用:
[ 7283.481773] Out of memory: Kill process 11786 (chromium-browse) score 306 or sacrifice child
[ 7283.481833] Killed process 11786 (chromium-browse) total-vm:1813576kB, anon-rss:208804kB, file-rss:0kB, shmem-rss:8380kB
[ 7283.497847] oom_reaper: reaped process 11786 (chromium-browse), now anon-rss:0kB, file-rss:0kB, shmem-rss:8044kB
Run Code Online (Sandbox Code Playgroud)
在 Ubuntu 19.04、Linux 内核 5.0.0 中测试。
我认为关于RSS与VSZ的讨论已经很多。从管理员/程序员/用户的角度来看,当我设计/编码应用程序时,我更加关注RSZ(常驻内存),并且当您不断提取(堆积)越来越多的变量时,您会看到该值不断上升。尝试一个简单的程序循环构建基于malloc的空间分配,并确保将数据填充到该malloc分配的空间中。RSS不断发展。就VSZ而言,它更多地是Linux进行的虚拟内存映射,其核心功能之一是从常规操作系统概念派生而来的。VSZ管理由内核的虚拟内存管理完成,有关VSZ的更多信息,请参见Robert Love对mm_struct和vm_struct的描述,它们是内核中基本task_struct数据结构的一部分。
总结一下@jmh 的优秀答案:
在#linux 中,进程的内存包括:
由于分页,并非所有这些都始终完全存储在内存中,只有有用的、最近使用的部分(页面)。其他部分被调出(或换出)以为其他进程腾出空间。
下表取自 @jmh 的答案,显示了特定进程的常驻内存和虚拟内存的示例。
+-------------+-------------------------+------------------------+
| portion | actually in memory | total (allocated) size |
|-------------+-------------------------+------------------------|
| binary | 400K | 500K |
| shared libs | 1000K | 2500K |
| stack+heap | 100K | 200K |
|-------------+-------------------------+------------------------|
| | RSS (Resident Set Size) | VSZ (Virtual Set Size) |
|-------------+-------------------------+------------------------|
| | 1500K | 3200K |
+-------------+-------------------------+------------------------+
Run Code Online (Sandbox Code Playgroud)
总结一下:常驻内存是当前物理内存中实际存在的内存,虚拟大小是加载所有组件所需的总物理内存。
当然,数字不会相加,因为库在多个进程之间共享,并且它们的内存是为每个进程单独计算的,即使它们只加载一次。
| 归档时间: |
|
| 查看次数: |
260370 次 |
| 最近记录: |