我无法理解 ceph 原始空间的使用情况。
我在 7 个服务器上有 14 个 HDD(14 个 OSD),每个 HDD 3TB ~ 总共 42 TB 原始空间。
ceph -s
osdmap e4055: 14 osds: 14 up, 14 in
pgmap v8073416: 1920 pgs, 6 pools, 16777 GB data, 4196 kobjects
33702 GB used, 5371 GB / 39074 GB avail
Run Code Online (Sandbox Code Playgroud)
我创建了 4 个块设备,每个 5 TB:
df -h
/dev/rbd1 5.0T 2.7T 2.4T 54% /mnt/part1
/dev/rbd2 5.0T 2.7T 2.4T 53% /mnt/part2
/dev/rbd3 5.0T 2.6T 2.5T 52% /mnt/part3
/dev/rbd4 5.0T 2.9T 2.2T 57% /mnt/part4
Run Code Online (Sandbox Code Playgroud)
df …