有没有办法在 ext4 文件系统上使分区大于 2 TB?我试图在 debian 上执行此操作,但收到消息分区大小不能超过 2TB ...
我想在不格式化硬盘的情况下将 ext4 分区转换为 ext3 分区。
这是可能的并推荐吗?
我在dmesg打开电脑大约半小时后收到这些错误:
[ 1355.677957] EXT4-fs error (device sda2): htree_dirblock_to_tree: inode #1318420: (comm updatedb.mlocat) bad entry in directory: directory entry across blocks - block=5251700offset=0(0), inode=1802725748, rec_len=179136, name_len=32
[ 1355.677973] Aborting journal on device sda2-8.
[ 1355.678101] EXT4-fs (sda2): Remounting filesystem read-only
[ 1355.690144] EXT4-fs error (device sda2): htree_dirblock_to_tree: inode #1318416: (comm updatedb.mlocat) bad entry in directory: directory entry across blocks - block=5251699offset=0(0), inode=2194783952, rec_len=53280, name_len=152
[ 1356.864720] EXT4-fs error (device sda2): htree_dirblock_to_tree: inode #1312795: (comm updatedb.mlocat) bad entry in directory: …Run Code Online (Sandbox Code Playgroud) 我正在使用带有选项的 rsync
-r for recursive
-l copy symlinks as symlinks
-t preserve modification time
-D preserve devices and specials
-v verbose
--prune-empty-dirs
Run Code Online (Sandbox Code Playgroud)
源文件系统是 ext4,目标文件系统是 XFS。我复制了几百个文件夹,范围在几百个演出到几 TB 之间,它们都在小于 1GB 的大小差异内。然而,这个特定的文件夹在源上是 264GB,一旦我 rsync 它跨它是 286GB。这是一个巨大的差异,我不知道它有什么问题。
如果源 ext4 FS 有一些损坏,它是否可能没有报告正确的磁盘使用情况?我正在使用'du -skh'。
我已经删除了整个内容并重新启动了 3 次,它产生了相同的结果。
Btrfs 是否可以仅将 SSD 用于元数据并将批量数据保留在成本较低的存储(例如 HDD)上?我参考了这个页面Using_Btrfs_with_Multiple_Devices并且找不到解决方案。
谢谢!
我有一个 Ubuntu 14.04 服务器,它无法在 65,000 目录之外创建新目录。我已经运行 atune2fs -l并且可以看到该dir_nlink标志已设置。有谁知道还可以检查什么来允许这种情况发生?我有这个服务器配置的许多其他克隆,它们都超过了 65,000 大关并按预期工作。我已经比较了tune2fs -l输出,它们看起来是一样的。我仍然有几百万个空闲的 inode 和块。我已经卸载并重新安装了文件系统,但没有任何改变。
我有一个 ext4 卷,在特定目录中有很多文件。
每当我尝试在其中创建具有特定名称的文件时,都会收到“设备上没有剩余空间”错误。
$ touch /data/lake/http:____images__br037__319854_366_tp.jpg
touch: cannot touch ‘/data/lake/http:____images__br037__319854_366_tp.jpg’: No space left on device
Run Code Online (Sandbox Code Playgroud)
如果我更改文件名的一个字母,它就可以工作。
这是该卷的磁盘使用情况和 inode 使用情况:
# df -h /dev/xvdf
Filesystem Size Used Avail Use% Mounted on
/dev/xvdf 985G 679G 256G 73% /data
# df -i /dev/xvdf
Filesystem Inodes IUsed IFree IUse% Mounted on
/dev/xvdf 65536000 24751661 40784339 38% /data
Run Code Online (Sandbox Code Playgroud)
我还运行了 fsck 以确保它不是磁盘损坏问题。
# e2fsck -y /dev/xvdf
e2fsck 1.42.9 (4-Feb-2014)
/dev/xvdf: clean, 24751661/65536000 files, 182020406/262144000 blocks
Run Code Online (Sandbox Code Playgroud)
有人可以帮助我如何进一步调试它。
我正面临 .s 报告的 fs 空间错误的问题df。
我们谈论的是裸机 Ubuntu 14.04 服务器,/分区由 LVM 管理。
报告df的大小与 fs 超级块报告的大小不同。还从du -skh(在与/分区相关的目录上)计算大小证明df显示的结果不正确。
这是报道的内容df:
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rootvg-lv_root 20G 16G 2.8G 86% /
Run Code Online (Sandbox Code Playgroud)
这是超级块报告的内容(3616906*4096/1024**2=14128 MB free):
Last mounted on: /
Filesystem magic number: 0xEF53
Filesystem state: clean
Filesystem OS type: Linux
Inode count: 1290240
Block count: 5242880 << exactly 20 GB
Reserved block count: 227170
Free blocks: 3616906 …Run Code Online (Sandbox Code Playgroud) 在我们公司,我们在多台服务器上有很多 kvm 客户端,大多数客户端都运行 ubuntu 16.04 及其主机系统。
选择的文件系统变成了 EXT4,用于客户端和主机。最近我使用 BTRFS 提供的一些很棒的快照功能来设置一个带有增量备份的备份服务器。
一些研究提供了一条线索,KVM 主机从不使用 BTRFS,因为 FS 的碎片会减慢客户端的速度,直到它们最终甚至冻结。
在 KVM 客户端上使用 BTRFS 有什么建议/做/不做吗?
我们正在重新考虑客户端和主机的 FS 选择,使用 XFS 是否比 EXT4(客户端/主机或仅一侧)有优势?
Thomas Krenn 建议创建 ext4 分区,例如:
https://www.thomas-krenn.com/de/wiki/FSCK_Best_Practices
mkfs -O ^64bit,^metadata_csum -t ext4
Run Code Online (Sandbox Code Playgroud)
这是什么意思?
这和y2038问题有什么关系吗?
https://en.wikipedia.org/wiki/Year_2038_problem
“用户应该能够在 mke2fs 时通过指定 -Ometadata_csum 来打开此功能。由于 64 位功能允许任意大的块组描述符,这些描述符足够大以启用位图的 crc32c,因此 mke2fs 应警告用户,如果该功能当64位功能已经经过彻底测试时,设置为metadata_csum,^64bit。”
https://ext4.wiki.kernel.org/index.php/Ext4_Metadata_Checksums
有什么推荐的?移动到 btrfs 吗?
谢谢!