小编UsA*_*R33的帖子

某些 debian 版本没有 lsb_release 吗?

我正在发布的 .deb 包期望它可以调用 lsb_release。一位使用 Debian 6.0.5 的客户表示 lsb_release 命令(甚至在终端中)会产生命令未找到错误。这是标准还是他的 Debian 构建有问题?

debian lsb debian-squeeze

35
推荐指数
2
解决办法
4万
查看次数

当我获得过时的 nfs 文件句柄时,如何强制卸载?

让自己陷入了一个棘手的境地。在 /mnt/1 安装 aufs

aufs on /mnt/1 type aufs (rw,relatime,si=daab1cec23213eea)
Run Code Online (Sandbox Code Playgroud)

我无法卸载东西:

sudo umount -f /mnt/1
umount2: Stale NFS file handle
umount: /mnt/1: Stale NFS file handle
umount2: Stale NFS file handle
umount2: Stale NFS file handle
Run Code Online (Sandbox Code Playgroud)

如何卸载挂载点?(无需重启系统)

(注意:aufs 位于 openafs 系统之上,而不是 NFS 之上。)

linux nfs mount

19
推荐指数
1
解决办法
2万
查看次数

如何使用大日志文件减少搜索速度?

我经常处理非常大的日志文件(> 3 GB)。我注意到这些文件的 less 性能很糟糕。我经常想跳到文件的中间,但是当我告诉 less 向前跳 15 M 行时,它需要几分钟..

我想象的问题是较少需要扫描文件中的 '\n' 个字符,但这需要太长时间。

有没有办法让它只寻求明确的抵消?例如,在文件中寻找字节偏移量 15 亿。这个操作应该快几个数量级。如果 less 不提供这种能力,那么还有其他工具吗?

log-files less

16
推荐指数
2
解决办法
8959
查看次数

为什么内存受限的 LXC 容器中的应用程序将大文件写入磁盘会被 OOM 杀死?

EDIT2:这个问题在 3.8.0-25-generic #37-Ubuntu SMP 下似乎也存在

编辑:我修改了原标题“为什么用 dd 写入文件会触发 Linux 内存不足管理器”中的问题?为了更好地反映我担心​​下面描述的一般问题:

我遇到了一个麻烦的场景,当我编写一个大小超过内存限制(设置为 300MB)的文件时,OOM 杀手很难杀死我的 LXC 容器中的进程。当我在实际只有 512 MB RAM 的 Xen 虚拟机(EC2 t1.micro)上运行应用程序时,不会出现该问题,因此文件缓冲似乎存在一些与容器内存限制相关的问题。

作为一个简单的例子,我可以演示 dd 写入的大文件如何导致问题。同样,这个问题困扰着所有应用程序。我正在寻求解决应用程序缓存变得太大的一般问题;我了解如何使“dd”工作。

设想:

我有一个 LXC 容器,其中 memory.limit_in_bytes 设置为 300 MB。

我尝试添加一个 ~500 MB 的文件,如下所示:

dd if=/dev/zero of=test2 bs=100k count=5010
Run Code Online (Sandbox Code Playgroud)

大约 20% 的时间,Linux OOM 管理器被此命令触发并杀死一个进程。不用说,这是非常意外的行为;dd 旨在模拟由在容器内运行的程序写入的实际“有用”文件。

详细信息:虽然文件缓存变大 (260 MB),但 rss 和文件映射似乎仍然很低。以下是 memory.stat 在写入过程中可能是什么样子的示例:

cache 278667264
rss 20971520
mapped_file 24576
pgpgin 138147
pgpgout 64993
swap 0
pgfault 55054
pgmajfault 2
inactive_anon 10637312
active_anon 10342400
inactive_file 278339584
active_file 319488
unevictable …
Run Code Online (Sandbox Code Playgroud)

linux ubuntu oom lxc cgroup

10
推荐指数
1
解决办法
5655
查看次数

如何强制 ntfsresize 忽略备份引导扇区?

我将一个硬盘驱动器克隆到另一个,一切运行良好。除了我的 NTFS 卷没有占用整个分区(由于旧的卷较小)。

这样做:

sudo ntfsresize -x /dev/sdb3
Run Code Online (Sandbox Code Playgroud)

我收到此错误:

ERROR: Could not get the old volume parameters from the backup bootsector
Run Code Online (Sandbox Code Playgroud)

我该如何解决?

ntfs

7
推荐指数
1
解决办法
4071
查看次数

基于 S3 的文件系统只能请求文件的一部分

我在 s3 中存储大型数据集,但在集群中的给定计算机上,我的程序只需要读取一小部分数据。

我首先尝试了 s3fs,但它首先下载整个文件,这需要很长时间。

是否有任何 s3 支持的文件系统使用 S3 API字节参数,以便内部读取(和搜索)命令仅读取文件的所需部分?

作为一个实际示例,如果我运行:

尾-c 1024巨大的文件_on_s3

只应请求最后 1kb(通过 bytes 参数),这意味着我应该很快得到结果。

(我不关心写回 S3;只从它读取)

filesystems amazon-s3 s3fs

5
推荐指数
1
解决办法
1169
查看次数

更快地创建交换文件

我正在使用 Amazon EC2,并希望能够在实例启动时快速生成大型交换文件 (~10+GB)。不幸的是,我的实例 (c1.xlarge) 上的 I/O 速度足够慢(20 MB/s),该操作需要 10 多分钟,这对于我的使用来说是不可接受的。

我知道交换文件必须预先分配才能使用,这样我就不能使用稀疏文件。

但是,是否有一些命令可以分配块而无需花费大量时间将块清零?另外,如果这个命令存在,我是否正确地假设交换文件中的页面在用户进程访问它之前被清零(减轻安全问题)?

linux filesystems swap amazon-ec2

3
推荐指数
1
解决办法
2262
查看次数

标签 统计

linux ×3

filesystems ×2

amazon-ec2 ×1

amazon-s3 ×1

cgroup ×1

debian ×1

debian-squeeze ×1

less ×1

log-files ×1

lsb ×1

lxc ×1

mount ×1

nfs ×1

ntfs ×1

oom ×1

s3fs ×1

swap ×1

ubuntu ×1