我正在通过点对点 T1 线路发送增量 ZFS 快照,我们已经到了在下一次备份开始之前一天的快照几乎无法通过网络传输的地步。我们的发送/接收命令是:
zfs send -i tank/vm@2009-10-10 tank/vm@2009-10-12 | bzip2 -c | \
ssh offsite-backup "bzcat | zfs recv -F tank/vm"
Run Code Online (Sandbox Code Playgroud)
我有足够的 CPU 周期可用。是否有更好的压缩算法或替代方法可以用来将更少的数据推送到线路上?
我有一个 CentOS 5 VMWare 服务器通过 NFS 连接到 OpenSolaris 2009.06 机器,该机器保存磁盘映像。我的虚拟机似乎受到缓慢 IO 的限制,所以我想尽我所能来优化连接。
我不确定在生产系统上测量吞吐量的最佳方法,但使用dd bs=1024k count=400显示本地 (OpenSolaris) 写入 ~1.6GB/s 和远程 (CentOS) 写入 ~50MB/s 的一些不科学测试。我想这些比我实际得到的要低,因为目前有 7 个虚拟机正在连接上运行。
目前,这两台机器是直连的 gigE,在两个 NIC 上都启用了巨型帧 (MTU=9000)。除此之外,没有进行任何优化。NFS 挂载/导出使用默认值。
我应该从哪里开始转动旋钮以提高性能?
我有一个共享两个 ZFS 文件系统的 OpenSolaris 机器。一种是与运行 VMware 服务器的 CentOS 机器的 NFS 连接(磁盘映像存储在 ZFS 中)。另一个是与 Windows 2008 服务器的 iSCSI 连接,在 ZFS 之上采用 NTFS 格式。两个连接都直接通过 gig-E(无交换机)。
我正在运行 munin 来监控这些盒子,但我不确定我应该期待什么样的数字。任何人都可以给我一些基线数字来比较或就从哪里开始调整提出任何建议吗?
这是我看到的 NFS 统计信息,一旦我在 solaris 机器上修复了 munin,我就会发布 iSCSI :P


我们在半农村地区,因此我们的互联网连接选项非常有限。我们目前为本地 ISP 提供的 1.5/1.5 Mbps 专用 T1 线路每月支付约 500 美元。相比之下,康卡斯特以 90 美元/月的价格提供16/2 Mbps 的“商业”互联网连接。
除了原始速度及其 SLA 之外,我应该比较这两种服务的哪些指标?过去我听人们说电缆不如专用 T1 安全,但从未见过任何证据支持这一点。有没有理由坚持使用价格超过 5 倍的较慢线路?
服务器有 4GB 的 RAM,我的 zpool 由 15.5k SAS 驱动器组成,排列如下:
NAME STATE READ WRITE CKSUM
tank ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
c0t2d0 ONLINE 0 0 0
c0t3d0 ONLINE 0 0 0
c0t4d0 ONLINE 0 0 0
c0t5d0 ONLINE 0 0 0
c0t6d0 ONLINE 0 0 0
c0t7d0 ONLINE 0 0 0
c0t8d0 ONLINE 0 0 0
raidz1-1 ONLINE 0 0 0
c0t10d0 ONLINE 0 0 0
c0t11d0 ONLINE 0 0 0
c0t12d0 ONLINE 0 0 0
c0t13d0 …Run Code Online (Sandbox Code Playgroud)