Tho*_*ing 1 networking cluster drbd failovercluster shared-storage
我有两到三台较旧的 HP ProLiant DL380 G6/7 服务器,只有 x * 1 GBit 以太网,但 CPU 功率、RAM 和本地存储容量相当可观。我有兴趣构建一个由两个甚至三个节点组成的小型集群式设置,其中所有节点都提供服务,这与我目前对“超融合”流行语的理解非常相似。这些服务特别托管 VM,这些 VM 本身为不同的 Web 应用程序、一些守护程序、数据库等托管 Web 服务器。在应用程序级别上非常不同的东西,一些 I/O 绑定,一些不是。
这些服务器目前正在使用 Synology 的一些入门/中端 NAS,但事情不再那么好用了。我在让 NAS 在繁重的 I/O 负载下可靠工作时遇到了问题,除了一些基准测试之外,日常性能也不是很好。所以我正在研究不同的选项,比如集群文件系统、DRBD、即用型解决方案,比如 Proxmox 等等。
我目前问自己的主要问题是,是否有某种方法可以通过构建更喜欢本地读取和写入的“东西”来使网络成为一些可能的瓶颈。例如,DRBD 提供了复制协议 A,这正是我想到的。可能的数据丢失的时间跨度可能是某人认为可以接受的风险,查看每台服务器的冗余硬件等。此外,人们可能根本不需要在所有给定时间在所有节点上托管应用程序的可能性,但在节点更新和重启等情况下,仅在节点上移动应用程序可能是可以接受的。这样的事情可能会完成手动,经过一些准备步骤或其他什么。
重要的一点是,如果节点在大部分时间都托管自己的应用程序,则可以通过之后的异步写入通信来进行大量本地读取和写入。这也正是DRBD 文档所说的:
无论如何,在双主模式下使用 DRBD 作为 GFS 的复制存储设备是完全可能的。由于 DRBD 通常从本地存储读取和写入本地存储,而不是 GFS 通常配置为运行的 SAN 设备,因此应用程序可能会受益于减少的读/写延迟。
在块级别是否有没有 DRBD 的可比技术?也许一些集群文件系统自己已经提供了这样的东西?此外,如果所建议的内容仅适用于开箱即用的当前 Ubuntu 发行版,那将是有益的,因为这是我目前为服务器选择的操作系统。
由于您最好提供具有本地 I/O 的共享存储系统,因此我建议您查看在集群主机之间执行某种异步复制的解决方案。我怀疑在主动-被动共享存储上创建多个集群共享卷将提供所需的本地 I/O。
我可以推荐 StarWind Virtual SAN,因为它似乎正是您正在寻找的。 https://www.starwindsoftware.com/starwind-virtual-san
归档时间: |
|
查看次数: |
189 次 |
最近记录: |