在我的系统分区上,我有一个无法删除的文件夹。该文件夹是通过从 Acronis TrueImage 备份恢复文件而创建的。
错误消息说:
错误 0x80070570:文件或目录已损坏且无法读取。
我已经多次尝试chkdsk /r /f在启动时运行,但问题仍然存在。
是否有任何其他实用程序或 chkdsk 选项可以尝试解决此问题?
我仍然看到人们sync; sync; sync; sleep 30; halt在谈论关闭或重新启动 Linux 时建议使用咒语。
我从 Linux 开始就一直在运行,虽然这是 BSD 4.2/4.3 和 SunOS 4 天的推荐程序,但我不记得至少在过去的十年里我必须这样做,在此期间我可能经历了 Linux 的关闭/重启可能数千次。
我怀疑这是一个时代错误,因为内核无法卸载和同步根文件系统和其他关键文件系统,即使在单用户模式下(例如 /tmp),因此有必要明确告诉它刷新尽可能多的数据到磁盘。
这些天,还没有在内核源代码中找到相关代码(通过http://lxr.linux.no和 google挖掘),我怀疑内核足够聪明,甚至可以干净地卸载根文件系统,文件系统也足够聪明在正常shutdown/ reboot/期间卸载自身之前有效地执行同步(2)poweorff。
在"sync; sync; sync"其中的文件系统不会卸载干净(如物理磁盘故障)或系统处于这样的状态,只有直接强迫重新启动(8)将它弄出来的冷冻(如负载过只在极端的情况下有必要高以让它安排关闭命令)。
sync在卸载可移动设备之前,我也从未执行过该程序,也从未遇到过问题。
另一个例子 - Xen 允许 DomUshutdown从 Dom0发送命令,这被认为是“干净的关闭”,无需任何人先登录并输入魔法sync; sync; sync。
我是对的还是我幸运地关闭了数千次系统?
最近我们遇到了一个问题,其中一个 ext4 文件系统似乎无法处理大量文件,more than 6mln in this case尽管有足够的空间。它6mln是使用所有默认设置格式化时 ext4 文件系统可以拥有的最大数量吗?我试图谷歌它,但没有得到任何明确的答案。任何人都可以在此遮蔽一些光线吗?干杯!!
给定一个专门用于存储音乐、视频等的分区,是否可以隐藏 lost+found 目录?
我很快就会有一个包含数千个文件的文件夹,每个文件大约有几个 KB。我需要通过 Windows 网络将这些从一个 UNC 共享传输到另一个。一般来说,简单地将文件全部复制会更快,还是将它们压缩(例如,在最快模式下使用 7zip)并发送一个或几个大文件会更快?或者在实践中没有区别?
默认情况下,在 180 天或一定数量的挂载后,大多数 Linux 文件系统会强制执行文件系统检查 (fsck)。当然,这可以关闭,例如,在 ext2 或 ext3 上使用 tune2fs -c 0 -i 0。
在小型文件系统上,这种检查只是一种不便。但是,对于较大的文件系统,此检查可能需要数小时才能完成。当您的用户依赖此文件系统来提高工作效率时,假设它通过 NFS 为他们的主目录提供服务,您会禁用计划的文件系统检查吗?
我问这个问题是因为现在是凌晨 2 点 15 分,我正在等待很长时间的 fsck 完成(ext3)!
我的服务器使用 NFS(网络文件系统),而我无法使用 PHP 的 flock() 函数。有没有办法锁定 NFS 上的文件,或者是否需要这样做?
我正在评估 GlusterFS 和 Ceph,似乎 Gluster 是基于 FUSE 的,这意味着它可能不如 Ceph 快。但是看起来 Gluster 有一个非常友好的控制面板并且易于使用。
前几天Ceph被并入linux内核,这表明它的潜力更大,未来可能是一个不错的选择。
我想知道哪个(甚至两者中的?)是生产使用的更好选择?如果你能分享你的实践经验就好了
performance filesystems load-balancing distributed-filesystems
我们有一个容量为 600 Gigs 且几乎已满的硬盘。它已经填满了 18,501,765 个文件(主要是 19k 小图像)和 7,142,132 个文件夹。也很难找出所有空间都去了哪里。我们的常规清理程序没有清理足够的空间,这意味着我们需要从整体上查看该驱动器并确定那里有什么以及可以移动或删除的内容。我们已经尝试了几个应用程序,到目前为止它们要么被炸毁,要么只是运行了惊人的时间才能完成。
Space ObServer能够在几乎不占用任何内存的情况下读取 18,501,765 个文件和 7,142,132 个文件夹。我确定这主要是因为它使用 SQL 后端来存储所有数据。不幸的是,它是所有产品中最贵的,每台服务器 259.95 美元。
在我的研究过程中,我尝试了几种不同的付费和免费解决方案。我在下面列出了我尝试过的产品,供大家参考。
更新 #1:我试图分析的服务器有 2 GB 的 RAM,我尝试的大多数产品似乎都试图将文件/文件夹信息保存在内存中。对于 18,501,765 个文件和 7,142,132 个文件夹,这往往会很快用完。
更新 #2:看起来 …
我试图挂载以前只读挂载的文件系统read-writeable:
mount -o remount,rw /mountpoint
Run Code Online (Sandbox Code Playgroud)
不幸的是它没有工作:
mount: /mountpoint not mounted already, or bad option
Run Code Online (Sandbox Code Playgroud)
dmesg 报告:
[2570543.520449] EXT4-fs (dm-0): Couldn't remount RDWR because of unprocessed orphan inode list. Please umount/remount instead
Run Code Online (Sandbox Code Playgroud)
Aumount也不起作用:
umount /mountpoint
umount: /mountpoint: device is busy.
(In some cases useful info about processes that use
the device is found by lsof(8) or fuser(1))
Run Code Online (Sandbox Code Playgroud)
不幸的是没有lsof的fuser不显示位于挂载点下的任何进程访问的东西。
那么 - 我怎样才能清理这个未处理的孤立列表,以便能够在不重新启动计算机的情况下再次挂载文件系统?