我们有一个基于 CentOS 6.4 的服务器连接到 Hitachi HNAS 3080 存储,并观察到内核以只读模式重新挂载文件系统:
5 月 16 日 07:31:03 GNS3-SRV-CMP-001 内核:[1259725.675814] EXT3-fs (dm-1):错误:以只读方式重新挂载文件系统
这发生在几次 I/O 错误并且据报道设备的所有路径都出现故障之后:
5 月 16 日 07:31:03 GNS3-SRV-CMP-001 多路径:mpatha:剩余活动路径:0
我一直在查看 sar 日志,可以看到很少有非常大的(2 秒)等待时间:
07:40:00 dev8-0 17.91 112.04 98.03 11.73 0.00 0.20 0.07 0.12
07:40:00 dev8-16 0.23 1.85 0.00 8.00 0.00 3.71 3.71 0.09
07:40:00 dev8-32 91.50 8338.76 5292.93 148.98 8.38 91.60 9.76 89.35
07:40:00 dev252-0 91.27 8336.91 5292.93 149.34 17.79 194.88 9.79 89.38
07:40:00 dev252-1 674.80 8168.16 5292.93 19.95 1473.53 2183.60 1.32 …
Run Code Online (Sandbox Code Playgroud) 我需要将一个 20 GB 的KVM虚拟磁盘文件(存储 CentOS 6.5 VM 的根文件系统)从一台实验室服务器传输到另一台。大文件大小以及我曾经将这样的虚拟磁盘文件压缩到几百兆字节的事实使我本能地启用了压缩,scp
但我惊讶地发现传输速度相当低。然后我试图bzip2
结合ssh
和cat
与大吃一惊。以下是方法和平均吞吐量的摘要。
scp -C vm1-root.img root@192.168.161.62:/mnt/vdisks/
, 11 MB/秒。 bzip2 -c vm1-root.img | ssh -l root 192.168.161.62 "bzip2 -d -c > /mnt/vdisks/vm1-root.img"
, 5 MB/秒。这个更低的结果促使在网上搜索。scp -c arcfour -C vm1-root.img root@192.168.161.62:/mnt/vdisks/
, 13 MB/秒。-c arcfour
在有关 serverfault 的一个答案中建议使用as 。它几乎没有帮助。最后,我禁用了压缩。scp vm1-root.img root@192.168.161.62:/mnt/vdisks/
, 23 MB/秒。 压缩不应该更快吗?
编辑:我不知道为什么这个问题被否决了。我想在这里可以学到一些东西。
ssh(1)
从@sven收到手册页提示后,我尝试了几种不涉及压缩的文件传输替代方法,两者都取得了更好的结果。
cat vm1-root.img | ssh -l root 192.168.161.62 "cat > /mnt/vdisks/vm1-root.img"
, 26 …
我们有几台运行 CentOS 内核 2.6.32-358.2.1 的 HP ProLiant BL460c Gen8、BIOS I31 06/01/2015 服务器,并且观察到内核日志时间戳突然激增。这是来自/var/log/messages
:
May 19 05:31:58 NWBLWICZVIS-A-VZ-GVS2-01 kernel: [ 0.001000] Detected 2600.024 MHz processor.
May 19 05:31:58 NWBLWICZVIS-A-VZ-GVS2-01 kernel: [18014398.554743] Mount-cache hash table entries: 256
Run Code Online (Sandbox Code Playgroud)
价值从接近零到 208 天!这已在至少 10 个系统上看到。奇怪的是,时间戳的秒部分总是 18014398。系统死机,必须硬重置。正常运行时,时间戳没有跳转。