相关疑难解决方法(0)

BBWC:理论上是个好主意,但有人保存过你的数据吗?

我熟悉 BBWC(电池支持的写入缓存)的用途 - 并且以前在我的服务器中使用过它们,即使 UPS 良好。显然存在它不提供保护的故障。我很想知道它在实践中是否真的提供了任何真正的好处。

(注意,我特别在寻找有 BBWC 和崩溃/失败的人的回应,以及 BBWC 是否有助于恢复)

更新

在收到这里的反馈后,我越来越怀疑 BBWC 是否会增加任何价值。

为了对数据完整性有任何信心,文件系统必须知道数据何时被提交到非易失性存储(不一定是磁盘 - 我会回到这一点)。值得注意的是,很多磁盘都在数据何时提交到磁盘上撒谎 ( http://brad.livejournal.com/2116715.html )。虽然假设禁用磁盘缓存可能会使磁盘更诚实似乎是合理的,但仍然不能保证情况确实如此。

由于 BBWC 中的缓冲区通常很大,屏障可能需要将更多数据提交到磁盘,因此会导致写入延迟:一般建议是在使用非易失性回写缓存时禁用屏障(并禁用 on-磁盘缓存)。然而,这似乎会破坏写操作的完整性——仅仅因为在非易失性存储中维护更多数据并不意味着它会更加一致。事实上,如果逻辑事务之间没有划分,那么确保一致性的机会似乎比其他方式少。

如果 BBWC 在数据进入它的非易失性存储(而不是提交到磁盘)时确认障碍,那么它似乎满足了数据完整性要求而不会造成性能损失 - 这意味着仍应启用障碍。然而,由于这些设备通常表现出与将数据刷新到物理设备(使用屏障显着慢)以及禁用屏障的广泛建议一致的行为,因此它们不能以这种方式运行。为什么不?

如果操作系统中的 I/O 被建模为一系列流,那么当写缓存由操作系统管理时,有一些范围可以最小化写屏障的阻塞效应 - 因为在这个级别只有逻辑事务(单个流) 需要提交。另一方面,不知道哪些数据位构成事务的 BBWC 必须将其整个缓存提交到磁盘。内核/文件系统是否在实践中真正实现了这一点,需要付出比我目前愿意投入的更多的努力。

磁盘组合告诉 fibs 已提交的内容和突然断电无疑会导致损坏 - 并且日志或日志结构的文件系统在中断后不会执行完整的 fsck 不太可能检测到损坏,更不用说试图修复它。

就故障模式而言,根据我的经验,大多数突然停电是由于市电断电(使用 UPS 和管理关机可轻松缓解)。人们从机架中拉出错误的电缆意味着数据中心卫生(标签和电缆管理)不佳。UPS 无法防止某些类型的突然断电事件 - PSU 或 VRM 中的故障 带有屏障的 BBWC 可以在发生故障时提供数据完整性,但此类事件有多常见?从这里缺乏回应来看,这是非常罕见的。

当然,在堆栈中提高容错能力比 BBWC 的成本要高得多——但是,将服务器实现为集群还有许多其他性能和可用性方面的好处。

减轻突然断电影响的另一种方法是实施 SAN - AoE 使这成为一个实用的提议(我在 iSCSI 中并没有真正看到这一点),但同样存在更高的成本。

disaster-recovery storage hardware-raid bbwc

26
推荐指数
2
解决办法
8225
查看次数

带有 NV 缓存的 RAID 控制器是否可以提高 SSD 阵列的性能或完整性?

我打算购买一台采用 RAID 10 固态硬盘的服务器 (Dell PowerEdge R740),我的首要任务是写入性能和数据完整性。它将运行 Linux。SSD 具有带断电保护的写入缓存。

这些似乎是我的 RAID 选项:

  • PERC H330(无缓存),软件 RAID(直通)
  • PERC H330(无缓存)、硬件 RAID(直写)
  • PERC H730P(2 Gb NV 缓存)、硬件 RAID(直写)
  • PERC H740P(8 Gb NV 缓存)、硬件 RAID(直写)

我的问题:

  • 这些配置中的任何一个是否存在数据丢失或断电损坏的风险?
  • 我应该期望哪种配置具有最佳写入性能?
  • NV 缓存还有其他我没有考虑过的好处吗?

相关问题:

raid ssd cache

20
推荐指数
2
解决办法
1万
查看次数

低端硬件 RAID 与软件 RAID

我想在旧电脑上构建一个低端 6TB RAID 1 存档。

MB: Intel d2500hn 64bit
CPU: Intel Atom D2500
RAM: 4GB DDR3 533 MHz
PSU: Chinese 500W
NO GPU
1x Ethernet 1Gbps
2x SATA2 ports
1x PCI port
4x USB 2.0
Run Code Online (Sandbox Code Playgroud)

我想在 Linux 上构建一个 RAID1 存档(我认为是 CentOS 7,然后我会安装我需要的所有东西,我认为ownCloud或类似的东西),我将在我的家庭本地网络中使用它。

10-20 美元的RAID PCI 控制器还是软件RAID 更好?

如果软件raid比较好,我在CentOS上应该选择哪个?是将系统放在外部 USB 上并在连接器上使用 2 个磁盘,还是应该将系统放在一个磁盘中然后创建 RAID?

如果我要做 3 个磁盘的 RAID 5,我应该选择硬件 raid PCI 还是简单的 PCI SATA 连接器?

raid software-raid hardware-raid raid1 centos7

16
推荐指数
2
解决办法
7041
查看次数

SAS 磁盘与入门级 SSD

我们正在采购新的联想 SR650 服务器(将托管多个 Oracle DB 服务器、SAP)& 供应商提出以下存储选项

  • ThinkSystem 2.5" 1.2TB 10K SAS 12Gb 热插拔 512n 硬盘(数量:16 个磁盘)
  • ThinkSystem 2.5" 5210 960GB 入门级 SATA 6Gb 热插拔 QLC SSD(数量:16 个磁盘)
  • ThinkSystem 2.5" 5210 1.92TB 入门级 SATA 6Gb 热插拔 QLC SSD(数量:16 个磁盘)

我们在某处读到,在突然断电时,与 SAS 磁盘相比,数据完全损坏的可能性更大。

从性能和可靠性的角度来看,什么是更合适的存储选项?

我们有冗余的 UPS 以及数据中心专用的在线生成器。最初我们将托管 2 个 SAP 服务器(生产和开发)。两者都是虚拟化的。每个 VM 空间使用量约为 3 TB。过去我们使用Raid 5的经验并不好,我们所有的服务器都使用RAID 10,而在RAID10之后,我们没有遇到过去几年的任何故障。

将 16 个磁盘分成两个 Raid 10 阵列是个好主意吗?第一个阵列上的 PRD 和第二个阵列上的 DEV,所以无论进行什么操作(数据复制、备份等),都不应该影响第二个阵列?

storage

14
推荐指数
3
解决办法
5911
查看次数

LSI FastPath 与软件 RAID 有何不同?

这个问题与没有奇偶校验的 RAID 级别上的 SSD(如 RAID 0、1、10)有关。

FastPath 的推荐设置是将Write Policy设置为Write Through,将Read Policy 设置No Read Ahead,将IO Policy 设置Direct。这会禁用 RAID 控制器上的缓存,请求会直接命中 SSD。

软件 RAID 不是已经在做同样的事情了吗?FastPath 与它有何不同?

编辑:

这个问题似乎是软件与硬件 RAID 性能和缓存使用的重复,但这个问题很广泛,一般讨论软件与硬件 RAID。几乎所有的答案都说没有缓存的硬件 RAID 是无用的。

这个问题是关于为什么在涉及 SSD 时,带 FastPath(和不带缓存)的硬件 RAID 比软件 RAID 更好。

ssd lsi software-raid hardware-raid

6
推荐指数
1
解决办法
4119
查看次数

KVM 主机:具有缓存 + BBU 的硬件 RAID 与具有 LVM 写回缓存和 UPS 的 Linux 软件 RAID

我想在 Linux KVM 主机上设置带有 3x1TB 驱动器的 RAID 5。RAID 将用作 VM 磁盘的 LVM 精简存储。

已经有很多关于硬件突袭与软件 [1] 的讨论。根据这个讨论,由于更好的写入性能,不应使用具有缓存和 BBU 的硬件 RAID 来进行虚拟机磁盘存储的软件 RAID。

我想知道的是,在读/写性能和数据安全方面,以下设置是否可以与具有缓存和 BBU(例如 HP P410 512 MB + BBU)的硬件突袭相媲美:

  • Linux 软件 RAID / mdadm RAID 5
  • 512 MB ram 磁盘上的 LVM 写回缓存
  • 由 UPS 支持的主机可防止数据丢失,如硬件突袭中的 BBU

[1]软件与硬件 RAID 性能和缓存使用情况

linux raid lvm cache kvm-virtualization

5
推荐指数
1
解决办法
1056
查看次数

启用磁盘写入缓存时数据损坏

我最近了解到启用磁盘写入缓存可以显着提高系统性能。但是,我担心突然断电时数据损坏或丢失的潜在风险。

以下是有关我的设置的一些背景信息:

操作系统:Windows Server 2012 R2

磁盘类型:SATA 3.0 硬盘

目的:我正在考虑在磁盘上启用写入缓存以提高性能。我的理解是,如果写入缓存上的数据尚未提交到磁盘时发生电源故障、操作系统崩溃或访问数据的应用程序崩溃,则可能会发生数据损坏。

在我的研究过程中,我在这篇文章中发现了以下详细信息,他们提到“当启用活动磁盘写入缓存并且磁盘执行预读(RLA)时,数据损坏会在用户不知情的情况下发生,而提前结束。” 。我无法理解这句话的确切含义。

即使在断电时没有进行数据写入,启用写入缓存后是否会发生数据损坏/文件损坏的情况。

windows hard-drive sata disk-cache windows-server-2012-r2

5
推荐指数
1
解决办法
793
查看次数

硬件 RAID 和 ZFS 之间的差异

背景

我在带有Dell PowerEdge RAID 控制器 (PERC) H730 迷你硬件 RAID 控制器和八个 3TB 7.2k 3.5" SAS 硬盘的Dell PowerEdge R730上安装Proxmox 虚拟环境。我正在考虑使用 PERC H730 配置六个物理磁盘作为一个 RAID10 虚拟磁盘,其中两个物理磁盘保留为热备驱动器。但是,ZFS和 HW RAID之间似乎存在相当多的混淆,我的研究给我带来了混淆而不是清晰。

问题

  • 硬件 RAID 与 ZFS 的优缺点是什么?
  • 硬件 RAID 和 ZFS 之间有什么区别?
  • HW RAID 和 ZFS 技术是互补技术还是互不兼容?
  • 由于 Proxmox VE 是基于 Debian 的 Linux 发行版,与将 H730 设置为 HBA 模式并使用 ZFS 相比,将H730 用于带有LVM 的RAID10 是否更有意义?

如果这些应该是单独的 ServerFault 问题,请告诉我。

类似的服务器故障问题

我发现了以下类似的 ServerFault 问题,但这些问题似乎并没有直接解决上述问题。虽然,我完全承认我不是全职系统管理员,所以也许他们解决了我的问题,而我只是超出了我的深度。

zfs hardware-raid dell-poweredge dell-perc

4
推荐指数
2
解决办法
1745
查看次数

HPE 1.92TB SATA 6G 混合使用 SFF SSD 与 SAS HDD HP 磁盘相比非常慢

在下面的屏幕截图中,我对 3 台机器、4 个驱动器进行了基准测试。我的主要生产基于DL580,HPE 1.92TB SATA 6G 混合使用 SFF SSD RAID 1。

MySQL 100 万行的插入时间在 SSD 中约为 30 秒,而在 ImageServer 20TB 7200 RPM RAID 5 中约为 15 秒!!这他妈的怎么可能?

SSD花了我~2300美元,我真的很震惊,所有固件和驱动程序都是最新的,操作系统是Windows 2012 R2。

这是已知的还是预期的?!如果没有,那么请分享您的见解。

3台机器的详细信息:

  1. 的HP ProLiant DL380 Gen9,智能阵列P840,20TB RAID 5体积:12×2 TB 7200 RPM(驱动器类型:SAS HDD,型号:HP MB2000FCWDF,固件版本:HPD9,传输速度:PHY 1:6 Gbps)的。

  2. HP ProLiant DL380 Gen9、Smart Array P440ar、~1TB RAID 5 卷:4 X 300 GB 10500 RPM(驱动器类型:SAS 硬盘,型号:HP EG0300FCVBF,固件版本:HPD9,传输速度:PHY 1:6 Gbps)。

  3. HP ProLiant DL580 Gen9、Smart Array P830i、1.9TB …

raid performance ssd hp-smart-array hpe

3
推荐指数
1
解决办法
7380
查看次数