小编Kam*_*iel的帖子

如何获取有关 Linux 中 /proc 中显示的打开管道的更多信息?

在 Linux 中,如果你/proc/<pid>/fd经常深入挖掘,你会看到如下输出:

lrwx------ 1 root root 64 Jul 30 15:14 0 -> /dev/null
lrwx------ 1 root root 64 Jul 30 15:14 1 -> /dev/null
l-wx------ 1 root root 64 Jul 30 15:14 10 -> pipe:[90222668]
lr-x------ 1 root root 64 Jul 30 15:14 11 -> pipe:[90222669]
l-wx------ 1 root root 64 Jul 30 15:14 13 -> pipe:[90225058]
lr-x------ 1 root root 64 Jul 30 15:14 14 -> pipe:[90225059]
Run Code Online (Sandbox Code Playgroud)

如何获取有关开放管道的更多信息,例如另一端是哪个进程?

linux pipe

61
推荐指数
2
解决办法
5万
查看次数

还有其他人在企业中使用 OpenBSD 作为路由器吗?你在什么硬件上运行它?

我们在每个位置都有一个 OpenBSD 路由器,目前在 4U 服务器机箱中的通用“自制”PC 硬件上运行。由于可靠性问题和空间考虑,我们正在考虑将它们升级到一些适当的服务器级硬件,并提​​供支持等。

这些盒子用作每个站点的路由器、网关和防火墙。在这一点上,我们非常熟悉 OpenBSD 和 Pf,因此对于从系统转移到其他东西(例如专用 Cisco 硬件)犹豫不决。

我目前正在考虑将系统移至某些 HP DL 系列 1U 机器(型号尚未确定)。我很想知道其他人是否在他们的业务中使用这样的设置,或者已经迁移到或离开了。

hardware router openbsd gateway

26
推荐指数
2
解决办法
2万
查看次数

分析 Linux NFS 服务器性能

我想对我们的 NFS 服务器进行一些分析,以帮助追踪我们应用程序中的潜在瓶颈。服务器正在运行 SUSE Enterprise Linux 10。

我想知道的事情是:

  • 哪些客户端正在访问哪些文件
  • 基于每个客户端的读/写吞吐量
  • 其他 RPC 调用造成的开销
  • 等待其他 NFS 请求或磁盘 I/O 为客户端提供服务所花费的时间

我已经知道可用的统计数据/proc/net/rpc/nfsd,事实上我写了一篇博客文章深入描述了它们。我正在寻找的是一种深入挖掘并帮助了解影响特定客户所见性能的因素的方法。我想分析 NFS 服务器在我们集群上的应用程序性能中扮演的角色,以便我可以想出最佳优化它的方法。

linux performance nfs

23
推荐指数
1
解决办法
2万
查看次数

您如何跟踪连接到您的交换机的设备?

目前,我们手动记录与交换机端口的连接。当然,维护是一件苦差事,文档一保存就过时了。

是否有任何用于查询交换机的工具,最好通过 SNMP,可以告诉您另一端连接的是什么?

作为记录,我们主要使用 HP ProCurve 交换机。

switch

15
推荐指数
1
解决办法
2万
查看次数

Sun Grid Engine huhohshdhjha

当我输入时qstat -h,我得到以下选项

   [-s {p|r|s|z|hu|ho|hs|hd|hj|ha|h|a}] show pending, running, suspended, zombie jobs,
                                      jobs with a user/operator/system/array-dependency hold, 
                                      jobs with a start time in future or any combination only.
                                      h is an abbreviation for huhohshdhjha
                                      a is an abbreviation for prsh
Run Code Online (Sandbox Code Playgroud)

世界是什么huhohshdhjha????

command-line-interface gridengine

13
推荐指数
1
解决办法
505
查看次数

Linux 服务器只使用 60% 的内存,然后交换

我有一台运行我们的 bacula 备份系统的 Linux 服务器。机器像疯了一样磨,因为它很重来交换。问题是,它只使用了 60% 的物理内存!

这是来自的输出free -m

free -m
             total       used       free     shared    buffers     cached
Mem:          3949       2356       1593          0          0          1
-/+ buffers/cache:       2354       1595
Swap:         7629       1804       5824
Run Code Online (Sandbox Code Playgroud)

和一些示例输出vmstat 1

procs -----------memory---------- ---swap-- -----io---- -system-- -----cpu------
 r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa st
 0  2 1843536 1634512      0   4188   54   13  2524   666    2    1  1  1 89  9  0
 1 11 …
Run Code Online (Sandbox Code Playgroud)

linux memory swap

12
推荐指数
5
解决办法
2万
查看次数

Apache mod_auth_kerb 和 LDAP 用户组

我一直在考虑mod_auth_kerb在我们的内部 Web 服务器上部署以启用 SSO。我能看到的一个明显问题是,它是一种要么全有要么全无的方法,要么您的所有域用户都可以访问某个站点,要么不能。

是否有可能结合起来mod_auth_kerb的东西,如mod_authnz_ldap在特定的组中LDAP检查组成员?我猜这个KrbAuthoritative选项会与此有关吗?

此外,据我所知,该模块将用户名设置为username@REALM经过身份验证,但当然在目录中,用户仅存储为用户名。此外,我们运行的一些内部站点(例如 trac)已经有一个链接到每个用户名的用户配置文件。有没有办法解决这个问题,也许是通过在身份验证后以某种方式剥离领域位?

ldap kerberos single-sign-on apache-2.2

12
推荐指数
2
解决办法
2万
查看次数

IPMI 循环和重置有什么区别?

使用 ipmitool 子命令chassis power cycle与重新启动机器有什么区别chassis power reset

ipmi ipmitool

10
推荐指数
3
解决办法
3万
查看次数

Xen DomU 根文件系统在 iSCSI 虚拟 IP 故障转移时变为只读

我的 Xen 服务器是 openSUSE 11.1,带有 open-iscsi 到我们的 iSCSI SAN 集群。SAN 模块位于启动器连接到的虚拟 IP 后面的 IP 故障转移组中。

如果主 SAN 服务器出现故障,则辅助服务器将充当目标服务器的角色。这一切都由 LeftHand SAN/iQ 软件处理,并且在大多数情况下运行良好。

我遇到的问题是,有时我的一些 Xen DomU 在 IP 故障转移后会使其根文件系统变为只读。它不一致,并且每次发生故障转移时都会发生在不同的子集上。它们都运行相同的 openSUSE 11.1 软件映像。

每个 DomU 的根文件系统通过 open-iscsi 挂载在 Dom0 中,然后 Xen 使用标准块设备驱动程序将其公开给 DomU。

确切的症状是作为 root 运行touch /test返回错误“只读文件系统”。但是,输出mount显示它以读写方式挂载。当然,此时 domU 上的所有其他 I/O 也都失败了,因此机器很难停机。只需xm从 Dom0重新启动它,甚至无需重新连接 iSCSI 会话,一切都会再次运行。

在 Dom0 端,故障转移期间的 syslog 消息类似于以下内容:

kernel: connection1:0: iscsi: detected conn error (1011)
iscsid: Kernel reported iSCSI connection 1:0 error (1011) state (3)
iscsid: …
Run Code Online (Sandbox Code Playgroud)

linux xen iscsi

9
推荐指数
1
解决办法
9755
查看次数

如何在 SGE 上设置每个用户的最大运行作业数?

我们正在使用 SGE(Sun Grid Manager)。我们对所有用户的并发作业总数有一些限制。

我想知道是否可以对特定用户的并发运行作业数量设置一个临时的、自愿的限制。

例如,用户dave将要提交 500 个作业,但他不希望同时运行 100 个作业,例如,因为他知道这些作业执行了大量 I/O,从而卡住了文件系统(不幸的是,这是真实的故事)。

那可能吗?

gridengine

9
推荐指数
1
解决办法
1万
查看次数