我将大约 3.7TB 的数据从一个具有 HFS+ 文件系统的 4TB 外部驱动器复制到另一个具有 exFAT 文件系统的 4TB 外部驱动器。新硬盘在只能传输大约 75% 的数据后就被填满了,我猜测是因为 exFAT 的分配单元大小为小文件占用了每个文件的更多空间。
我正在复制很多(约数百万)个小文件(每个 1.5kB)。所以我想弄清楚如何做到这一点。
因此我需要一个满足以下要求的文件系统:
块大小足够小,我可以容纳数百万个大小为 1.5kB 的文件,浪费最少的空间。(这里exFAT有问题)
与Linux 读/写兼容。(这里HFS+有问题)
能够在Linux上创建4T分区。(这里ext4有问题)
有替代的文件系统吗?
更新:这个问题被标记为已在另一篇文章中得到回答(优化大量小文件的文件系统?)。然而,接受的答案对我不起作用:
mkfs.ext4 -b 1024 /dev/your_partition
Warning: specified blocksize 1024 is less than device physical sectorsize 4096
/dev/sdc: Cannot create filesystem with requested number of inodes while setting up superblock
Run Code Online (Sandbox Code Playgroud) 我尝试使用这一行,从包含我要循环的文件夹的父文件夹开始:
for dir in */; do
cd $dir
for dir2 in */; do
cd $dir2
ls -d $PWD/*
cd ..
done
cd ..
done
Run Code Online (Sandbox Code Playgroud)
但它只是输出我整个计算机的全部内容并返回到根文件夹 /~ ...这种行为有什么解释吗?