部分版本信息:
Operating system is Ubuntu 11.10, on EC2, kernel is 3.0.0-16-virtual and the application info is:
Version: 8.3.11 (api:88)
GIT-hash: 0de839cee13a4160eed6037c4bddd066645e23c5 build by buildd@allspice, 2011-07-05 19:51:07
Run Code Online (Sandbox Code Playgroud)
在 dmesg 中也出现一些奇怪的错误(见下文),没有发生复制。我已经使我的第一个节点成为主要节点并显示:
drbd driver loaded OK; device status:
version: 8.3.11 (api:88/proto:86-96)
srcversion: DA5A13F16DE6553FC7CE9B2
m:res cs ro ds p mounted fstype
0:r0 StandAlone Primary/Unknown UpToDate/DUnknown r----s ext3
Run Code Online (Sandbox Code Playgroud)
我的辅助节点显示:
drbd driver loaded OK; device status:
version: 8.3.11 (api:88/proto:86-96)
srcversion: DA5A13F16DE6553FC7CE9B2
m:res cs ro ds p mounted fstype
0:r0 StandAlone Secondary/Unknown Inconsistent/DUnknown r----s
Run Code Online (Sandbox Code Playgroud)
在 master 上显示 …
我想要一个在两个节点上的 drbd8 之上的共享文件系统。服务器运行 ubuntu 9.10。
我用谷歌搜索了很多,但找不到网络社区喜欢的明确趋势。目前似乎更多地使用 OCFS2。
哪个文件系统更可靠、更快?GFS2 还是 OCFS2?linux 社区更倾向于 GFS2 还是 OCFS2?ubuntu 9.10 更好地支持这两者中的哪一个?
是否有更好(或更常见)的替代方案?
我有一个服务器,它通过 NFS 导出主目录。它们位于软件 RAID1(/dev/sdb 和 /dev/sdc)上,操作系统位于 /dev/sda 上。我注意到我的%iowait报告top和sar相对较高(与其他服务器相比)。值范围在 5-10% 之间,至于其他服务器(比这台服务器负载更多)与 0-1% 相同。当%iowait达到 12% 以上时,所谓的用户体验就会下降。然后我们会经历延迟。
我在日志中没有任何驱动器错误。我想避免使用试错法来玩驱动器。
如何找出哪个设备(/dev/sda、/dev/sdb 或 /dev/sdc)是瓶颈?
谢谢!
编辑:我使用 Ubuntu 9.10 并且已经iostat安装。我对 NFS 相关问题不感兴趣,但更多的是如何找到使系统变慢的设备。NFS 没有加载,我有 32 个线程可用,结果是
grep th /proc/net/rpc/nfsd
th 32 0 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000
Run Code Online (Sandbox Code Playgroud)
Edit2:这是iostat -x 1输出的一部分(我希望我没有在这里违反一些规则):
avg-cpu: %user %nice %system %iowait %steal %idle
45.21 0.00 0.12 4.09 0.00 50.58
Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz …Run Code Online (Sandbox Code Playgroud) 我们正在使用两台服务器实现 DRDB + heartbeat,以拥有一个具有故障转移功能的文件系统。这些服务器为其他服务器公开 NFS 服务
目前 DRDB 工作得很好,但在测试时,我们从一台服务器切换到另一台服务器,其他服务器中通过 NFS 挂载的文件夹只是挂起。
是否有任何透明的方法来进行此故障转移?让它对 NFS 透明,还是我们需要重新挂载那些 nfs 挂载的文件夹?
我看到 DRBD 对性能的影响比他们的用户手册说的要大得多。我使用的是 DRBD 8.3.7(Fedora 13 RPM)。
我已经设置了一个 DRBD 测试并测量了没有 DRBD 的磁盘和网络的吞吐量:
dd if=/dev/zero of=/data.tmp bs=512M count=1 oflag=direct
536870912 bytes (537 MB) copied, 4.62985 s, 116 MB/s
Run Code Online (Sandbox Code Playgroud)
/ 是我正在测试的磁盘上的逻辑卷,没有 DRBD 挂载
iperf:
[ 4] 0.0-10.0 sec 1.10 GBytes 941 Mbits/sec
Run Code Online (Sandbox Code Playgroud)
根据吞吐量开销预期,瓶颈将是较慢的,网络或磁盘和 DRBD 应该有 3% 的开销。就我而言,网络和 I/O 似乎非常匹配。听起来我应该能够达到 100 MB/s 左右。
所以,使用原始 drbd 设备,我得到
dd if=/dev/zero of=/dev/drbd2 bs=512M count=1 oflag=direct
536870912 bytes (537 MB) copied, 6.61362 s, 81.2 MB/s
Run Code Online (Sandbox Code Playgroud)
这比我预期的要慢。然后,一旦我用 ext4 格式化设备,我就会得到
dd if=/dev/zero of=/mnt/data.tmp bs=512M count=1 oflag=direct
536870912 …Run Code Online (Sandbox Code Playgroud) 我需要将运行 Debian 6 的现有存储服务器迁移到 HA 设置,其中包含许多 TB 数据。我不能简单地长时间关闭此服务器(毕竟需要 HA)。
我计划将此服务器迁移到 DRBD 集群。我不能为这个集群购买两台新服务器;出于成本原因,我需要重用现有服务器作为集群的成员。请记住,我一次不能关闭任何东西超过几分钟。
我准备好了一台新服务器,运行 Debian 8 作为“主服务器”。我需要使用这个“主”服务器建立一个“裂脑”集群;将所有数据从现有的旧服务器复制到集群;将现有服务切换到集群;用 Debian 8 重新配置旧服务器,然后将其添加到集群中作为“从属”,重新同步数据,最后进行冗余设置。
我已经在新机器上设置了集群,但是,如何进行?我什至无法启动 drbd 服务,因为另一个“节点”甚至还不存在......
我从以前运行良好的 drbd 配置开始……有两个可用节点。
任何帮助表示赞赏。
我正在研究如何实现从主数据中心到灾难恢复站点的近实时复制。将被复制的数据将是:
为简单起见,我们假设总共不到 10TB 的数据,平均写入速度低于 100MB/s,峰值为 1500MB/s,主数据中心和备份数据中心之间的链路将具有 10gbit/s 的吞吐量。
异步复制是可以接受和需要的——在突发写入或两个数据中心之间的连接短暂中断的情况下——我们不想降低本地写入速度,并且愿意牺牲可能丢失的最新部分数据以防万一影响主数据中心的灾难性故障。
我的理解是我们可以选择:
还有其他值得考虑的解决方案吗?
谢谢!
我正在寻找创建某种文件复制而又不会损失太多文件操作性能的方法。由于非技术限制,真正的 RAID 不是一种选择。
据我了解,DRBD 尝试像真正的 RAID1 一样,立即分发更改。根据我的阅读,只有当服务器彼此非常接近(同一机架)时,这才有意义。然而,我可以忍受文件系统复制和硬盘故障时部分数据丢失之间存在一定的延迟(例如 15-30 分钟)。
你能指出我的方向吗?是否有非实时文件复制?或者我会更好地简单地一遍又一遍地调用 rsync 吗?是否有任何基准可以将具有不同延迟的 DRBD 与软件 RAID 系统进行比较。
我有 2 台服务器配置了 drbd、corosync 和pacemaker。一切工作正常,如果主服务器发生故障,则主服务器将成为辅助服务器,辅助服务器将成为主服务器。
但是如果第一台服务器在故障转移后再次出现,drbd 将无法再次连接,我必须执行
drbdadm 连接所有
在现在的中学。
这是来自 server1 的日志,其中包含我所做的所有输入(https://www.refheap.com/95997):
root@server1:~# ifdown eth4
Jan 12 08:11:37 server1 kernel: [237958.935578] ixgbe 0000:04:00.0: removed PHC on eth4
Jan 12 08:11:43 server1 kernel: [237965.430849] cib[2877]: segfault at 0 ip 00007f7d342c8aca sp 00007fffaba39e58 error 4 in libc-2.19.so[7f7d34247000+19f000]
Jan 12 08:11:44 server1 kernel: [237966.427423] crmd[2878]: segfault at 0 ip 00007eff7d291aca sp 00007fffaae51538 error 4 in libc-2.19.so[7eff7d210000+19f000]
Jan 12 08:11:46 server1 kernel: [237967.955014] drbd r0: peer( Secondary -> Unknown ) conn( …Run Code Online (Sandbox Code Playgroud) 我有个问题。
\n目前,此操作系统为 Windows Server 2019。\n卷配置为 Raid-5。\n两台服务器通过心跳网络连接\n两个节点均使用 WinDRBD 进行镜像。两个节点具有相同的配置。\n我未格式化 G: 并将 D: 设置为对主节点可见。
\n我的资源在下面
\ninclude "global_common.conf";\n\nresource "foo" {\n protocol A;\n\n net {\n use-rle no;\n }\n on node1 {\n address XXX.XXX.XXX.XXX:7600;\n node-id 1;\n volume 1 {\n disk "G:";\n device minor 1;\n meta-disk internal;\n }\n }\n on node2 {\n address XXX.XXX.XXX.XXX:7600;\n node-id 2;\n volume 1 {\n disk "G:";\n device minor 1;\n meta-disk internal;\n }\n }\n}\nRun Code Online (Sandbox Code Playgroud)\n两个节点都工作正常。\n通过切换角色完成测试。\n( 主 \xe2\x86\x92 辅助 / 辅助 \xe2\x86\x92 主 )
\n然而,启动后就出现了问题。
\n启动后,状态如下图所示。(两个节点)
\n …