在 Linux 中,如果你/proc/<pid>/fd经常深入挖掘,你会看到如下输出:
lrwx------ 1 root root 64 Jul 30 15:14 0 -> /dev/null
lrwx------ 1 root root 64 Jul 30 15:14 1 -> /dev/null
l-wx------ 1 root root 64 Jul 30 15:14 10 -> pipe:[90222668]
lr-x------ 1 root root 64 Jul 30 15:14 11 -> pipe:[90222669]
l-wx------ 1 root root 64 Jul 30 15:14 13 -> pipe:[90225058]
lr-x------ 1 root root 64 Jul 30 15:14 14 -> pipe:[90225059]
Run Code Online (Sandbox Code Playgroud)
如何获取有关开放管道的更多信息,例如另一端是哪个进程?
我们在每个位置都有一个 OpenBSD 路由器,目前在 4U 服务器机箱中的通用“自制”PC 硬件上运行。由于可靠性问题和空间考虑,我们正在考虑将它们升级到一些适当的服务器级硬件,并提供支持等。
这些盒子用作每个站点的路由器、网关和防火墙。在这一点上,我们非常熟悉 OpenBSD 和 Pf,因此对于从系统转移到其他东西(例如专用 Cisco 硬件)犹豫不决。
我目前正在考虑将系统移至某些 HP DL 系列 1U 机器(型号尚未确定)。我很想知道其他人是否在他们的业务中使用这样的设置,或者已经迁移到或离开了。
我想对我们的 NFS 服务器进行一些分析,以帮助追踪我们应用程序中的潜在瓶颈。服务器正在运行 SUSE Enterprise Linux 10。
我想知道的事情是:
我已经知道可用的统计数据/proc/net/rpc/nfsd,事实上我写了一篇博客文章深入描述了它们。我正在寻找的是一种深入挖掘并帮助了解影响特定客户所见性能的因素的方法。我想分析 NFS 服务器在我们集群上的应用程序性能中扮演的角色,以便我可以想出最佳优化它的方法。
目前,我们手动记录与交换机端口的连接。当然,维护是一件苦差事,文档一保存就过时了。
是否有任何用于查询交换机的工具,最好通过 SNMP,可以告诉您另一端连接的是什么?
作为记录,我们主要使用 HP ProCurve 交换机。
当我输入时qstat -h,我得到以下选项
[-s {p|r|s|z|hu|ho|hs|hd|hj|ha|h|a}] show pending, running, suspended, zombie jobs,
jobs with a user/operator/system/array-dependency hold,
jobs with a start time in future or any combination only.
h is an abbreviation for huhohshdhjha
a is an abbreviation for prsh
Run Code Online (Sandbox Code Playgroud)
世界是什么huhohshdhjha????
我有一台运行我们的 bacula 备份系统的 Linux 服务器。机器像疯了一样磨,因为它很重来交换。问题是,它只使用了 60% 的物理内存!
这是来自的输出free -m:
free -m
total used free shared buffers cached
Mem: 3949 2356 1593 0 0 1
-/+ buffers/cache: 2354 1595
Swap: 7629 1804 5824
Run Code Online (Sandbox Code Playgroud)
和一些示例输出vmstat 1:
procs -----------memory---------- ---swap-- -----io---- -system-- -----cpu------
r b swpd free buff cache si so bi bo in cs us sy id wa st
0 2 1843536 1634512 0 4188 54 13 2524 666 2 1 1 1 89 9 0
1 11 …Run Code Online (Sandbox Code Playgroud) 我一直在考虑mod_auth_kerb在我们的内部 Web 服务器上部署以启用 SSO。我能看到的一个明显问题是,它是一种要么全有要么全无的方法,要么您的所有域用户都可以访问某个站点,要么不能。
是否有可能结合起来mod_auth_kerb的东西,如mod_authnz_ldap在特定的组中LDAP检查组成员?我猜这个KrbAuthoritative选项会与此有关吗?
此外,据我所知,该模块将用户名设置为username@REALM经过身份验证,但当然在目录中,用户仅存储为用户名。此外,我们运行的一些内部站点(例如 trac)已经有一个链接到每个用户名的用户配置文件。有没有办法解决这个问题,也许是通过在身份验证后以某种方式剥离领域位?
使用 ipmitool 子命令chassis power cycle与重新启动机器有什么区别chassis power reset?
我的 Xen 服务器是 openSUSE 11.1,带有 open-iscsi 到我们的 iSCSI SAN 集群。SAN 模块位于启动器连接到的虚拟 IP 后面的 IP 故障转移组中。
如果主 SAN 服务器出现故障,则辅助服务器将充当目标服务器的角色。这一切都由 LeftHand SAN/iQ 软件处理,并且在大多数情况下运行良好。
我遇到的问题是,有时我的一些 Xen DomU 在 IP 故障转移后会使其根文件系统变为只读。它不一致,并且每次发生故障转移时都会发生在不同的子集上。它们都运行相同的 openSUSE 11.1 软件映像。
每个 DomU 的根文件系统通过 open-iscsi 挂载在 Dom0 中,然后 Xen 使用标准块设备驱动程序将其公开给 DomU。
确切的症状是作为 root 运行touch /test返回错误“只读文件系统”。但是,输出mount显示它以读写方式挂载。当然,此时 domU 上的所有其他 I/O 也都失败了,因此机器很难停机。只需xm从 Dom0重新启动它,甚至无需重新连接 iSCSI 会话,一切都会再次运行。
在 Dom0 端,故障转移期间的 syslog 消息类似于以下内容:
kernel: connection1:0: iscsi: detected conn error (1011)
iscsid: Kernel reported iSCSI connection 1:0 error (1011) state (3)
iscsid: …Run Code Online (Sandbox Code Playgroud) 我们正在使用 SGE(Sun Grid Manager)。我们对所有用户的并发作业总数有一些限制。
我想知道是否可以对特定用户的并发运行作业数量设置一个临时的、自愿的限制。
例如,用户dave将要提交 500 个作业,但他不希望同时运行 100 个作业,例如,因为他知道这些作业执行了大量 I/O,从而卡住了文件系统(不幸的是,这是真实的故事)。
那可能吗?