给定一个专门用于存储音乐、视频等的分区,是否可以隐藏 lost+found 目录?
我很快就会有一个包含数千个文件的文件夹,每个文件大约有几个 KB。我需要通过 Windows 网络将这些从一个 UNC 共享传输到另一个。一般来说,简单地将文件全部复制会更快,还是将它们压缩(例如,在最快模式下使用 7zip)并发送一个或几个大文件会更快?或者在实践中没有区别?
默认情况下,在 180 天或一定数量的挂载后,大多数 Linux 文件系统会强制执行文件系统检查 (fsck)。当然,这可以关闭,例如,在 ext2 或 ext3 上使用 tune2fs -c 0 -i 0。
在小型文件系统上,这种检查只是一种不便。但是,对于较大的文件系统,此检查可能需要数小时才能完成。当您的用户依赖此文件系统来提高工作效率时,假设它通过 NFS 为他们的主目录提供服务,您会禁用计划的文件系统检查吗?
我问这个问题是因为现在是凌晨 2 点 15 分,我正在等待很长时间的 fsck 完成(ext3)!
我在 Debian 有很长的运行过程。在某些时候抛出错误:
打开的文件太多。
跑步:
ulimit -a
显示:
打开文件 (-n) 1024
我希望将打开文件的数量增加 2 倍。执行后
ulimit -n 2048
该限制在我的会话结束前一直有效,这不适用于该任务。
如何永久增加打开文件的数量?
我有一个 tar (gz, bzip) 文件,想查看它的内容,但不是递归的。
这是:文件中的“第一级”。
我已经知道如何查看内容:
tar -ztf 文件.tar.gz
但它是递归的!!
谢谢!
我最近开始尝试在最新版本的 KVM/QEMU/libvirt 中支持直通文件系统。使文件系统可用于读取访问“刚刚奏效”,但我对写入访问应该如何工作感到有些困惑。在客户机中挂载文件系统后:
# mount -t 9p -o trans=virtio /fs/data /mnt
Run Code Online (Sandbox Code Playgroud)
如果现有文件具有 mode ,我可以修改它o+w:
# cd /mnt/work
# ls -l foo
-rw-rw-rw-. 1 root root 17 Dec 20 11:16 foo
# cat foo
this is line one
# echo this is line two >> foo
# cat foo
this is line one
this is line two
Run Code Online (Sandbox Code Playgroud)
但是无论目录权限如何,我都无法创建新文件或目录:
# ls -ld /mnt/work
drwxrwxrwx. 2 root root 4096 Dec 20 11:16 /mnt/work
# cd /mnt/work
# …Run Code Online (Sandbox Code Playgroud) 我试图理解这种 Unix 行为(我碰巧在 Ubuntu 11.10 上测试):
$ touch foo
$ setfacl -m u:nobody:rwx foo
$ getfacl foo
# file: foo
# owner: michael
# group: michael
user::rw-
user:nobody:rwx
group::rw-
mask::rwx
other::r--
$ chmod g-rw foo
$ getfacl foo
# file: foo
# owner: michael
# group: michael
user::rw-
user:nobody:rwx #effective:--x
group::rw- #effective:---
mask::--x
other::r--
Run Code Online (Sandbox Code Playgroud)
请注意,chmod(1) 命令已更新了 ACL 掩码。为什么会发生这种情况?
在SunOS的联机帮助有以下说:
如果使用 chmod(1) 命令更改具有 ACL 条目的文件的文件组所有者权限,则文件组所有者权限和 ACL 掩码都将更改为新权限。请注意,新的 ACL 掩码权限可能会更改对文件具有 ACL 条目的其他用户和组的有效权限。
我问是因为如果 chmod(1) 没有这种行为对我来说会很方便。我希望通过了解它为什么会这样做,我可以更好地设计我设置文件系统权限的方式。
想知道 CentOS 6 中一个目录中可以存储的文件数量是否有限制。有一个特定的目录可能有数百万个子目录。
除了存储容量之外,目录中可以包含的文件数量是否有限制?(我在这里假设“文件”可以表示文件或目录)。
非常感谢!
我有一个小的 logrotate 失误...... Logrotate 会通过失误旋转存档的日志,导致我的/var/log/. 当我发现有什么不对劲的时候,/var/log/已经包含了几百万个文件......
我设法(在一些脱发和 find/sed/grep 魔法之后)删除了所有有问题的文件并修复了我的 logrotate 配置。并认为一切都很好......
每当我ls/du -hs或以其他方式列出/var/log/(现在包含 80mb 的档案/日志和最多几百个文件)的内容时,执行此操作的过程会挂起一两分钟。我确实相信这在某种程度上与 logrotate 事故有关,但我不确定,可能是其他原因。无论如何,我不知道从哪里开始调试或寻找解决方案。请帮助:3
uname -a
Linux xxx 3.3.8-gentoo #18 SMP Sat Sep 21 22:44:40 CEST 2013 x86_64 Intel(R)
Core(TM)2 CPU 4400 @ 2.00GHz GenuineIntel GNU/Linux
cat /proc/meminfo
MemTotal: 2051552 kB
MemFree: 75612 kB
Buffers: 9016 kB
Cached: 1740608 kB
SwapCached: 0 kB
CFQ IO scheduler + SLUB allocator
Run Code Online (Sandbox Code Playgroud)
我想:一个目录中有多少文件太多了?(从网络下载数据)是相关的,但我不再有文件了。 …
为 UNIX 对新系统磁盘进行分区时,您对台式机和/或服务器的首选策略是什么?
请包括磁盘分区布局、文件系统格式和选项、挂载点、RAID 级别、LVM 组和卷、加密以及任何其他相关设置。