我熟悉通过向结构添加更多交换机来扩展结构,但我不明白为什么有时在结构之间进行路由会更好(考虑到所有交换机都来自同一供应商,使用完全相同的 FC 协议等)。
例如,我有一个带有来自供应商 A 的存储阵列的结构。来自供应商 B 的新存储已经配置,并且不是扩展当前结构,而是选择在新旧结构之间进行路由。
是否有关于织物最大尺寸的最佳实践?什么时候最好使用 SAN 路由而不是扩展当前结构?
NetApp 提供块级重复数据删除 (ASIS)。您知道 Linux(或 OpenSolaris、*BSD)上提供相同功能的任何文件系统(甚至是基于 FUSE 的)吗?
(我对像硬链接这样的虚假重复数据删除不感兴趣)。
我有一个由 ntpd 配置的 solaris/linux 服务器网络,通过 DNS 别名/CNAME 使用第 2 层的单个内部服务器。这是服务器关闭了一段时间并且客户端服务器的时钟不同步。
由于我们有另一个第 1 层 (PPS) 的内部服务器,DNS CNAME 已被修改为指向新服务器(已启动)。
但是使用ntpq -p我可以看到客户端服务器仍然指向旧服务器。看起来他们没有再次解析对等名称,因此他们没有获得新的服务器 IP。
如何顺利更新ntpd的peer list?
如果我重新启动 (x)ntpd,它将创建时间跳跃。我希望 ntpd 会更新其对等列表/配置并与新服务器顺利同步。
我正在尝试通过 10Gbps 链接最大化 Linux 客户端和单个 NFS 服务器之间的 NFS/TCP 带宽。尽管每个 NFS 安装都有自己的设备(主要/次要),但一切都归结为单个 TCP 连接,这是一个瓶颈。
使用 iperf 和多个 TCP 连接,我可以达到 ~8Gbps,但 NFS 卡在单个 TCP 流上并且限制为 ~2Gbps(还没有 tcp 调整)。
在 Solaris 上,系统设置rpcmod:clnt_max_conns允许设置系统能够使用多少个并发 TCP 连接到单个 NFS 服务器。
是否有 Linux 等价物或方法?
作为一种解决方法,我知道我可以在 NFS 服务器上设置许多 IP,然后对它们上的挂载点进行负载平衡,但这不是最佳的。
在 NFS 挂载上(RedHat 5.6 上的标准选项和古老的 2.6.18 内核),在我看来,大而多的写入操作会延迟较小的读取操作。例如,ls如果有cp或dd并发运行,则在目录中执行简单操作将需要几秒钟(或几分钟)。这个问题有所缓解,因为 Linux 将元数据缓存了几秒钟,但是当有大量数据要写入时,NFS 挂载变得不可用。
起初我认为这只是一个 NFS 服务器问题,但运行如下:
for((i=0; i<60; i++)) do
strace -f -t -o strace.$i.log time stat /mnt/nfs/data > out.$i.log 2>&1
sleep 1
if ((i == 30)); then
dd if=/dev/zero of=/mnt/nfs/data bs=1M count=1000 &
fi
done
wait
Run Code Online (Sandbox Code Playgroud)
并行的 tcpdump 告诉我以下内容:
1) 每当dd开始时,下stat一个缓存未命中需要 15 秒
23261 16:41:24 munmap(0x2ad024d0e000, 4096) = 0
23261 16:41:24 lstat("/mnt/fermat_emctest/data", {st_mode=S_IFREG|0600, st_size=1048576000, ...}) = 0
23261 16:41:40 open("/proc/filesystems", O_RDONLY) = …Run Code Online (Sandbox Code Playgroud) [ID 879645 kern.notice] NOTICE: /: unexpected free inode 211471, run fsck(1M) -o f
Run Code Online (Sandbox Code Playgroud)
我怎样才能干净地运行 fsck(/卸载)?我能看到的唯一解决方案是: - 分离 SDS 镜像,fsck 在另一个元设备上,重新启动,然后同步镜像;- 在 CDROM 上启动并运行 fsck(希望 CD 能够处理 RAID)。
有没有办法强制 Solaris 10 在下次重新启动时运行 fsck?你如何在 Solaris 10 上 fsck 你的 / ?
linux ×4
nfs ×2
solaris ×2
10gbethernet ×1
cname-record ×1
fsck ×1
netapp ×1
ntpd ×1
performance ×1
routing ×1
tcp ×1