标签: drbd

具有现有文件系统的磁盘上的 DRBD 占据了所有位置

我目前正在尝试通过 XEN 模拟环境。我已经安装了两个具有这种 FS 布局的 debian 系统:

cltest1:/etc# df -h
已使用的文件系统大小 Avail Use% Mounted on
/dev/xvda2 6.0G 417M 5.2G 8% /
tmpfs 257M 0 257M 0% /lib/init/rw
udev 10M 16K 10M 1% /dev
tmpfs 257M 4.0K 257M 1% /dev/shm

主机 cltest2 是相同的。

这是我的 drbd.conf

全球的 {
  次要计数 1;
}

资源 mysql {
  协议 C;

  同步器{
    速率10M;# 10 兆字节
  }

  在 cltest1 {
    设备 /dev/drbd0;
    磁盘 /dev/xvda2;
    地址 192.168.1.186:7789;
    元磁盘内部;
  }

  在 cltest2 {
    设备 /dev/drbd0;
    磁盘 /dev/xvda2;
    地址 192.168.1.187:7789;
    元磁盘内部; …

linux xen drbd

4
推荐指数
1
解决办法
2万
查看次数

SAN 复制

我公司目前的设置中只有一个存储盒(SuperMicro 硬件 + 带有 LSI RAID 卡和 12 个 SAS 7.2k 驱动器的机箱)。它在 linux 上运行,我们通过 iSCSI 将它连接到我们的文件服务器。我们买不起高端 SAN。虽然它有冗余部分(双 PSU,RAID 10),但我想添加一个辅助框以进行复制。

我正在考虑以下两个选项来将数据从节点 1 复制到节点 2

  1. 使用 DRBD 创建基于网络的镜像。主动/被动。节点 1 仍然作为 iSCSI 目标,并在其下设置 drbd,以便数据可以复制到节点 2。如果节点 1 由于网络问题而停机,我认为恢复速度要快得多,因为我们不必重新同步来自一旦节点 1 重新插入网络,节点 2 从头开始​​。

  2. 将两个节点设置为一个独立的框。他们每个人都会向我们的 MS 服务器 2008 FS 公开一个 LUN。从那里,我将使用两个 LUN 设置基于 Windows 的软件镜像。我担心的是,如果其中一个 LUN 丢失,我们将不得不重建整个阵列,这将非常耗时,因为我们有大约 6TB 的数据要复制。

对我来说,两者都很好地达到了目的,但 DRBD 选项似乎更复杂。请告知利弊。

raid storage-area-network replication drbd

4
推荐指数
1
解决办法
401
查看次数

带有 MySQL 的 DRBD

关于使用 DRBD 为 MySQL 提供 HA 的问题。

我需要确保我的备份 MySQL 实例在发生故障转移时始终处于功能状态。例如,如果主节点在提交事务时中途死亡,会发生什么?

我们是否会将数据复制到 mysql 无法处理的辅助数据?或者,如果网络在两者同步时消失,并且并非所有数据都能通过,该怎么办。

似乎有可能进入一种状态,即辅助数据上的不完整数据使 mysql 无法启动和读取数据库。

我错过了什么吗?

mysql drbd heartbeat

4
推荐指数
1
解决办法
1885
查看次数

使用 DRBD 同步服务器

假设我同步了两台服务器并使用了 DRBD,并且在同步它们之后我在两台服务器上都安装了应用程序,如果我想添加第三台服务器。这可能吗?因为我认为我应该创建块设备并在安装中使用它,这是在两台服务器上配置 DRBD 期间进行的

如果是,那(将来添加更多服务器)是否也适用于 NextCloud 服务器

谢谢

synchronization drbd

4
推荐指数
2
解决办法
1594
查看次数

DRBD 配置可自动解决任何脑裂问题

我正在运行 2 节点集群,其中 DRBD(主动/被动)由 drbd systemd 服务管理,还有一个小脚本,每当资源成为主要资源时就会安装卷。

我想以这样一种方式配置 DRBD,使其始终能够解决任何脑裂问题,并且始终至少有一个节点是主节点,并且只要两台机器都没有宕机,就能够在任何情况下提供服务。

我尝试了以下配置(其中pri-lost-after-sb"reboot"

after-sb-0pri discard-younger-primary;
after-sb-1pri discard-secondary;
after-sb-2pri call-pri-lost-after-sb;
Run Code Online (Sandbox Code Playgroud)

on-suspended-primary-outdated force-secondary一些其他组合。

但我总是发现集群进入不良状态并且无法从裂脑中恢复的情况。通常我会进入StandAlone节点并force-io-failures辅助节点(因此,在主节点再次发生故障后,即使已连接,该辅助节点也将无法工作)。

考虑到我高度重视服务正常运行时间而不是避免数据丢失,我还能做些什么来提高此设置的稳健性吗?

drbd

4
推荐指数
1
解决办法
383
查看次数

在 CentOS 7 上使用 Pacemaker 进行 DRBDManage

我有2层CentOS 7.6我已与配置的节点drbddrbdmanagepacemaker主动/被动故障转移。

在故障期间,我的 vip 和drbd服务从主节点故障转移到下一个节点的辅助节点,但我无法连接drbdmanage到检查/管理集群。

由于pacemaker具有 drbdmanage 的资源类型,我假设我应该能够管理服务并将其故障转移到幸存的节点。

我想知道drbdmanage节点故障后是否可以进行故障转移?

drbd pacemaker failovercluster centos7

3
推荐指数
1
解决办法
364
查看次数

在没有中间或远程共享的情况下,在 Linux 服务器之间实时同步文件有哪些选项?

Quickfix(一个开源 FIX 引擎)在服务器的文件系统(在这种情况下为 Linux)中保存状态信息和发送/接收的消息。对于灾难恢复,我希望这些文件在 WAN 上的备用服务器上近乎实时地保持最新状态,这样备用服务器就可以启动并了解系统的状态。

持久性文件是人类可解析的文本,在一天中累积起来的内容很少超过 1 GB。他们每晚都被清洗。

我希望同步直接发生,在第三台服务器上没有远程共享文件系统。我还需要这些文件在主服务器完全和突然的破坏中幸存下来。

Rsync 太慢,而且还不够接近实时有用。DRBD 是一种似乎可以完成这项工作的替代方法,但我希望评估替代方法。

除了 DRBD 和 rsync 之外,还有哪些选择可以做这样的事情?

disaster-recovery replication drbd

2
推荐指数
1
解决办法
1437
查看次数

跨两节点 apache 集群镜像数据的最佳方式

我正在构建一个新的服务器结构,我计划在它们后面有两个 apache 主力和一个 sql 数据库。我想知道在 apache 服务器之间镜像数据的最佳方式是什么。用户数据应该限制在这些服务器上,因为大部分数据都在 S3 中。

从我到目前为止所做的初步研究中,我已经阅读了有关 GlusterFS 和 DRBD 的内容,但是一个简单的 rsync 脚本可以解决问题吗?

rsync amazon-s3 drbd amazon-ec2 apache-2.2

2
推荐指数
1
解决办法
1413
查看次数

虚拟环境 (XEN) 上的 DRBD 疯狂

现在我正在使用 DRBD 在两个不同的 XEN VPS 上复制两个目录(/var/www 和 /var/spool/mail),它们彼此相距 7000 英里!最重要的是,我使用透明的 IPSec 隧道 VPN 来连接私有级别的两个节点,我知道这似乎不公平,现在我将(www 和邮件)文件夹放在 DRBD 目录中,我只是软- 将它们链接到每台机器,它正在工作和复制,但由于我在网络级别(距离和安全)上的负载太大,我的磁盘读/写速度很糟糕,我在 6 分钟内打开一个网页,甚至更长时间,我有邮件延迟,在一天结束时,我面临(双裂脑)并且两个节点都重新启动,那是当 DRBD 将两个节点都作为辅助节点时,

我正在尝试释放 DRBD 分区上的负载以加快速度,因此我将两个目录复制回其原始位置,并在 DRBD 分区上对每个目录进行了软链接,但这从未奏效,现在我需要好建议!(我使用 OCFS2 BTW 进行 DRBD 分区)

linux xen centos drbd

2
推荐指数
1
解决办法
397
查看次数

无法在 CentOS 7.3 上使用 DRBD 8.4 运行 drbdadm

节点:

  • 节点 1
  • 节点2

使用这种方式在两个节点上安装 DRBD:

rpm -ivh http://www.elrepo.org/elrepo-release-7.0-2.el7.elrepo.noarch.rpm
rpm --import /etc/pki/rpm-gpg/RPM-GPG-KEY-elrepo.org
yum -y install drbd84-utils kmod-drbd84
Run Code Online (Sandbox Code Playgroud)

添加了新硬盘并在两个节点上进行分区:

fdisk /dev/sdb
Run Code Online (Sandbox Code Playgroud)

然后格式化分区:

mkfs.ext4 /dev/sdb
Run Code Online (Sandbox Code Playgroud)

(在 node2 上失败,因此将其删除并添加了一个新磁盘/dev/sdc。将其格式化。)

按照官方指南在两个节点上配置基本资源:

http://docs.linbit.com/docs/users-guide-8.4/p-build-install-configure/#ch-configure

/etc/drbd.d/r0.res在两个节点上创建:

resource r0 {
    protocol C;
    on node1 {
            device /dev/drbd0;
            disk /dev/sdb;
            address 192.168.0.1:7789;
            meta-disk internal;
    }
    on node2 {
            device /dev/drbd0;
            disk /dev/sdc;
            address 192.168.0.2:7789;
            meta-disk internal;
    }
}
Run Code Online (Sandbox Code Playgroud)

在两个节点上编辑 iptables:

iptables -I INPUT -p tcp -m state --state NEW -m tcp --dport 7788 -j ACCEPT
iptables …
Run Code Online (Sandbox Code Playgroud)

partition drbd fdisk centos7

2
推荐指数
1
解决办法
1万
查看次数