我在 2 个服务器之间设置了 MySQL 复制,master ( A ) 和 slave ( B )。我需要在混合中添加一个新的奴隶 ( C )。我希望这个从站直接从主站获取更新,我不想从从站进行链式复制。但是,master 是“热”的,我通常使用 Xtrabackup 来创建 master 的完整备份,但这会锁定它 10 分钟,因为数据库大小约为 20GB。
WITH READ LOCK FLUSH TABLES上从乙上使用SHOW SLAVE STATUS乙,写下二进制日志和位置。然后用 Xtrabackup 备份数据库,将备份传送到C并使用它来创建从属,并将复制设置为指向A并使用我刚刚写下的 binlog 位置。
有没有更好的方法不需要我锁定B这么长时间?或者更容易自动化的东西?
对于生产分片 MongoDB 安装,我们需要 3 个配置服务器。根据文档“配置服务器 mongod 进程相当轻量级,可以在执行其他工作的机器上运行”。但是,在默认配置中,它们都启用了日志记录,并且预分配会占用 3 GB 的磁盘空间。我假设配置服务器的实际数据和交易量非常小,所以这似乎有点太多了。
有没有办法(安全地!)以更少的磁盘使用日志来运行这些配置服务器?我是否需要在配置服务器上进行日志记录?我可以将期刊大小设置得更小吗?
一年多以来,我一直在运行一个充满 OSM 数据的内部 PostGIS 服务器,用于基于 Mapnik 的瓦片生成和基于 Nominatim 的地理编码,并使用日复制更新。这很好用。
然而,随着使用量呈指数级增长,我希望通过添加额外的 PostgreSQL 服务器来实现更好的可靠性和性能。我有点迷失了。
由于 PostgreSQL 似乎不能自己处理复制,我会考虑使用像 PgPool-II 这样的中间件来保持服务器同步。但恐怕对于这种用法来说,这只是必要的:非常高的读写比率,所有写入每天都在同一确切时间完成。
我的问题很简单:你会怎么做才能使这些服务器保持同步?而且,OpenStreetMap Foundation、MapQuest、Mapbox 或 CloudMade 为此做了什么?
谢谢。
我有 2 个网络服务器,在此过程中可能不得不添加更多服务器。现在我使用 lsyncd + csync2 使这些服务器保持同步。它在性能方面运行良好,因为所有文件都在两台服务器上(无需网络访问即可在本地打开文件),但在其他情况下效果不佳。
一个例子是,如果我删除了服务器 1 上的一个文件,并立即将一个新文件上传到服务器 1,该文件具有相同的名称。然后该文件将同时从服务器 2 中删除,导致服务器 1 上新上传的文件被删除,因为服务器 2 将删除事件发送到服务器 1 以完成“更新循环”。
我不禁想到必须有更好的方法来保持服务器同步。我一直在研究 GlusterFS,我发现不鼓励将所有文件复制到所有服务器的设置。但是,我在这些服务器上运行了像 Drupal 这样的 CMS 系统。这样的 CMS 系统通常会打开相当多的文件,我担心太多的网络流量无法获取这些文件会减慢请求速度。
考虑将 lsyncd + csync2 替换为设置为将所有文件复制到所有节点的 GlusterFS 是一个想法,还是一个坏主意?
我想了解在通过 10 GbE 链接连接的 Linux (ZoL) 机器上的两个 ZFS 之间进行实时复制的最佳解决方案是什么。目标是将它们用于虚拟机;一次只有一个机器会运行虚拟机和 ZFS 文件系统本身。快照需要在第一个(活动的)盒子上是可能的。我打算使用企业级/近线级SATA盘,所以双口SAS盘是没有问题的。
我想到了以下可能性:
你觉得更好的方法是什么?谢谢。
从 Solaris 10 ZFS v22 复制到 FreeBSD 8.3 ZFS v28 是否安全?
是否有人使用特定版本的 ZFS 完成了此操作,并且可以完美运行?
我在一台物理戴尔服务器上运行了这个 Windows Server 2008 R2 域控制器,型号为 PowerEdge R510。
这里有一些电气问题,因此不幸的是,停电是很常见的情况;有 UPS,但它们并不像应有的那样可靠,有时服务器会遇到不正常关机的情况。
出于某种原因,我真的无法理解,有时这个特定的 DC 会在不正常关机后出现并遇到USN 回滚,迫使我们将其降级并提升回来。
这完全没有意义,因为服务器是物理服务器,并且从未对其执行过快照、克隆和/或恢复;此外,它没有安装额外的软件,它只执行 DC 职责;具体来说,不存在克隆/恢复/任何软件。
文件系统损坏至少有一定意义,但 USN 回滚确实没有意义,因为服务器无法恢复到以前的状态。不过,这两个月至少发生了3次,绝对不是一次性的疯狂事件;但我完全无法做出解释。
这个问题的原因是什么?
active-directory replication domain-controller windows-server-2008-r2 unexpected-shutdown
我最近继承了与我合作的一家小型初创公司的基础设施职责。我的传统角色是发展,所以请耐心等待...
我希望从正确的角度开始,并在 Azure 中启动和运行 Active Directory。我已经按照 Microsoft 的 TechNet 上的指南在 Azure VPN 中安装 AD 林,我有以下结构
Azure VPN 配置为使用我的本地网络进行 Site-to-Site VPN,它显示为正确连接。
我在 Auth 子网 IP 192.169.2.4 中的 A1 标准 VM 上有 Server 2012 R2。AD 安装进展顺利,开始了一个新的森林,一切似乎都运行良好。此 VM 是使用 Username1/Password1 创建的,在安装 AD 时会自动添加为域管理员/企业管理员。
我在同一个身份验证子网 - IP 192.169.2.5 中启动了第二个 Server 2012 R2 A1 标准 VM,用于复制目的,并使用 Username2/Password2 创建此 VM。然后,我将此 VM 加入使用第一个 DC 创建的域。加入域后,我尝试将此 VM 提升为副本 DC。它要求提供凭据来执行此操作,我提供 DOMAIN\Username1:Password1 作为凭据。
在提升过程 AD 到达在父 …
我的组织已在多个海上平台上部署了 2008 个 RODC。我们的想法是将我们的岸基域扩展到我们的船上,以更好地控制安全策略。选择 RODC 时假设它们会消耗更少的带宽。还有安全问题,但这些都是次要的。
海上互联网连接由非常昂贵的卫星链路提供。速度范围从缓慢到不存在。管理用户、计算机、组和权限更改以及 GPO 更新非常缓慢。
我开始相信我们已经开发了关于 RODC 的隧道愿景,并且拥有可写域控制器可能是更好的选择。我在考虑每艘船一个 RWDC 和一个 RODC 以实现冗余。它的用户群很小,但拥有冗余至关重要。
这还有很多,但我不能简单地总结一下。我很好奇是否有人测试过 RODC 和 RWDC 之间的带宽消耗差异?用 RWDC 替换其中一个 RODC 会显着增加带宽消耗吗?我将重定向 RODC 以从 RWDC 复制。这意味着一台域控制器连接回岸。
就目前情况而言,通常需要几分钟才能完成的事情可能需要数小时才能完成。船上的管理员在 RWDC 上工作将使生活变得更好。担心是 RWDC 喋喋不休会填满管道。
那么,有人测试过差异吗?
场景:我们有两个同时运行的数据中心(都为流量提供服务)。
每个都有自己的整个基础架构堆栈,因此它可以在没有另一个启动的情况下运行。
也就是说,当网络条件允许时,我们希望我们的 Redis 数据库在两者之间同步。在网络分区期间丢失密钥是可以接受的,因为有重复的密钥 - 它只是缓存数据。但是,当两个数据中心都启动时(从 15-20% 的缓存命中率到 30-40% 的缓存命中率),我们从缓存中获得了最大的好处。
经过一番搜索,我找不到任何可以有效地为我们提供多主的东西。(主要是说“不要那样做”或“不支持”)。
最后,我编写了一个客户端,连接到两个主服务器,订阅数据库的键空间事件,然后在 DB 之间推送所有 SET 命令(我们所有的键都设置为过期)-带有一些内部“最近看到”的缓存以防止重播循环。
目前,这很好用 - 唯一真正的缺点是,在我们获得一个新的关键事件之后,我们必须发出一个 GETEX 来获取该密钥并且它已经过期 - 所以你最终会进行第二次读取(因此大约是 2 倍)远程 DC 的 RTT 延迟)。它也仅限于真正支持 SET。
我的问题是:有没有更好的方法来获得这种多主复制?
我开始研究 SYNC/PSYNC,但是关于这些协议的文档并不多,并且不确定客户端可能必须承担哪些义务才能不破坏服务器。
replication ×10
zfs ×2
azure ×1
csync2 ×1
filesystems ×1
freebsd ×1
glusterfs ×1
journalling ×1
lsyncd ×1
mongodb ×1
mysql ×1
postgis ×1
postgresql ×1
redis ×1
rodc ×1
sharding ×1
solaris ×1
web-server ×1
zfsonlinux ×1