小编jam*_*mie的帖子

硬链接似乎只为链接本身(而不是文件数据)占用了数百个字节

附加信息

首先,谢谢大家的回答。

因此,我再次重新运行测试以测试下面的答案,即目录/文件夹条目占用 4KB,这使我的数字出现偏差,因此这次将 20,000 个文件放在一个目录中,并对另一个目录执行 cp -al。结果非常不同,在去掉文件名的长度后,硬链接计算为每个硬链接大约 13 个字节,比 600 好得多。好的,那么为了完整起见,下面给出的答案是由于每个条目造成的对于占用 4KB 的目录/文件夹,我再次进行了测试,但这次我创建了数千个目录并在每个目录中放置了一个文件。数学运算后的结果(增加了高清空间/按文件数(忽略目录))每个文件几乎正好是 4KB,


所以我正在考虑实施 rsync/hardlink/snapshot 备份策略,并想知道硬链接占用了多少数据,就像它必须将额外链接的条目作为目录条目等放置。无论如何我似乎找不到关于此的任何信息,我想它取决于文件系统。我能找到的唯一信息是他们不占用空间的建议(可能意味着他们不占用文件内容的空间),他们占用的空间可以忽略不计,因为他们只需要几个字节来存储硬链接。

所以我拿了几个系统(一个是虚拟机,一个在真实硬件上)并以 root 身份在根目录中执行以下操作:

mkdir link
cp -al usr link
Run Code Online (Sandbox Code Playgroud)

usr目录有大约 54,000 个文件。硬盘上使用的空间增加了大约 34MB。所以每个硬链接大约有 600 个字节,还是我做错了什么?


我在两个系统上都使用 LVM,格式为 ext4。

文件名大小总共约为 1.5MB(我通过执行 ls -R 并将其重定向到文件来获得它)。

老实说,带有硬链接的 rsync 工作得很好,我计划将它用于几台工作服务器上的日常备份。我还认为在相当长的一段时间内制作这样的增量备份/快照会很容易。但是,十天后 30mb 为 300mb,依此类推。此外,如果实际文件数据/内容只发生了一些变化,比如几百 KB,那么每天存储 30+ MB 的硬链接似乎过多,但我同意你对现代磁盘大小的看法。只是我没有在任何地方看到这个硬链接大小,我认为我可能做错了什么。Linux 操作系统上的硬链接是否为 600 字节正常?

为了计算使用的空间,我dfcp -al.

hard-link disk-usage

5
推荐指数
1
解决办法
367
查看次数

标签 统计

disk-usage ×1

hard-link ×1