有没有办法将不同的磁盘挂载为一个目录?假设我有一些带有 ext4 分区的磁盘:
/dev/sda1 1Tb mounted as /store1
/dev/sda2 2Tb mounted as /store2
/dev/sdb1 2Tb mounted as /store3
/dev/sdb2 2Tb mounted as /store4
Run Code Online (Sandbox Code Playgroud)
我想拥有/storeall7Tb 空间,将它们合并为一个逻辑目录,这样我就可以用一个rsync命令填充它。
在 Linux 上可以吗?我应该使用哪个文件系统?
我们一直在为我们的数据库服务器Lenovo ThinkServer RD120 中的 RAID 控制器而苦恼。这是一个重新命名的 Adaptec,联想/IBM 将其称为ServeRAID 8k。
我们已将此ServeRAID 8k修补到最新最好的:
即使在我们拥有它的短短 4 个月内,这个 RAID 控制器也有多次关键的 BIOS 更新,而且更改历史只是……好吧,可怕。
我们已经在逻辑 RAID 驱动器上尝试了回写和直写策略。在大量磁盘活动下,我们仍然会遇到间歇性 I/O 错误。它们并不常见,但发生时会很严重,因为它们会导致 SQL Server 2008 I/O 超时,有时还会导致 SQL 连接池失败。
我们已经完成了对这个问题的故障排除。由于缺少更换整个服务器或更换 RAID 硬件等核心技术,我们变得绝望了。
当我第一次拿到服务器时,我遇到了无法识别驱动器托架 #6 的问题。奇怪的是,将硬盘驱动器更换为不同品牌的硬盘驱动器解决了这个问题——并更新了 RAID BIOS(多次中的第一次)永久修复了它,因此我能够在托架 6 中使用原始的“不兼容”驱动器。凭直觉,我开始假设我选择的西部数据 SATA 硬盘在某种程度上与 ServeRAID 8k 控制器不兼容。
购买 6 个新硬盘驱动器是桌面上更便宜的选择之一,所以我选择了6 个 Hitachi(又名 IBM,又名联想)硬盘驱动器,其理论是 IBM/联想 RAID 控制器更有可能与通常使用的驱动器配合使用出售。
看起来这种预感得到了回报——我们已经度过了负载最重的三天(周一、周二、周三),没有出现任何类型的 I/O 错误。在此之前,我们经常在这个时间范围内至少有一个 I/O“事件”。看起来更换硬盘驱动器品牌确实解决了我们间歇性的 …
在指定服务器时,例如(我假设)许多不是存储专家的工程师,我通常会通过标准化至少 10k SAS 驱动器(因此是“具有 24x7 占空比等的企业”级)用于“系统”数据(通常是操作系统,有时是应用程序),并保留使用 7.2k 中/近线驱动器来存储性能不重要的非系统数据因素。这都是假设 2.5" (SFF) 磁盘,因为 3.5" (LFF) 磁盘仅与高容量、低 IOP 要求真正相关。
在没有大量非系统数据的情况下,我通常会将其放置在与系统数据相同的磁盘/阵列上,这意味着服务器只有 10k SAS 驱动器(通常为“One Big RAID10”类型)这些天的设置)。只有当非系统数据的大小很大时,我通常才会考虑将它放在一个单独的 7.2k 中/近线磁盘阵列上以降低成本/GB。
这让我想知道:在某些情况下,RAID10 阵列中的那些 10k 磁盘是否可以被 7.2k 磁盘替换而不会产生任何严重的负面影响?换句话说,我是否有时会通过坚持至少 10k 的“企业”级磁盘来过度规范(并使硬件供应商满意),还是有充分的理由始终坚持最低限度?
例如,假设一台服务器充当管理程序,并为一家典型的小公司(例如 50 个用户)配备几个 VM。该公司具有平均 I/O 模式,没有特殊要求。典型的朝九晚五,周一至周五的办公室,每晚运行几个小时的备份。VM 可能是 DC 和文件/打印/应用程序服务器。服务器有一个 RAID10 阵列,有 6 个磁盘来存储所有数据(系统和非系统数据)。在我的非专业人士看来,中线/近线盘似乎可以做得很好。以HP磁盘为例:
所以,我的问题是:坚持至少 10k SAS 驱动器是否明智,或者在许多情况下 7.2k 中线/近线磁盘实际上已经绰绰有余?如果是这样,我如何判断线路在哪里,并通过谨慎行事来避免成为无知的奴隶?
我的经验主要是在 HP 服务器上,所以上述内容可能有点 HP 的倾向,但我认为这些原则与供应商无关。
使用 S1200BTS Intel 主板的旧服务器坏了,已经在壁橱里放了好几年了。我更换了主板,发现它最初是使用板载硬件 raid 控制器配置的。
硬盘驱动器仍处于其原始配置,但 raid 控制器不再将任何驱动器检测为 raid 驱动器。
有没有办法在不损坏驱动器的情况下重建阵列?机箱内有 3 个相同的硬盘,但我不知道它使用的 raid 级别是什么。
我对其中一个驱动器进行了克隆,无需初始化驱动器即可看到驱动器上的每个文件都有 3 个同名文件,但每个文件都以 1、2 或 3 结尾,就好像每个文件有 3 个部分一样。无法打开任何文件。
我不知道从这里该去哪里。有人告诉我有近 800,000 张图像需要恢复,目前它们只是镇纸。
windows raid windows-server-2008 data-recovery hardware-raid
所以 grub 需要元数据版本 0.90 我想知道我是否可以更改我现有的数组来使用它而不是默认值 1.2。这样我就不用重新安装了。如果是,我该怎么做?
我们有一个 16 驱动器 RAID-6,其中包含三个有问题的驱动器。其中两个已经死亡,第三个正在发出 SMART 警告。(别管它是如何变得如此糟糕的状态。)
显然,我们希望在仍在工作的驱动器之前更换死驱动器,但最好是:
更换一个死驱动器,让RAID重建,然后更换另一个,让它再次重建;或者
一次更换两个驱动器并让它并行重建?
换句话说,我们是否会通过重新引入一两个驱动器来更快地恢复到冗余状态?并行重建两个驱动器会减慢重建过程吗?
如果重要,控制器是 3ware 9650SE-16ML。
我们有一台运行 CentOS 的 Dell PowerEdge T410 服务器,其 RAID-5 阵列包含 5 个希捷 Barracuda 3 TB SATA 磁盘。昨天系统崩溃了(我不知道具体是怎么回事,也没有任何日志)。
启动到 RAID 控制器 BIOS 后,我看到在 5 个磁盘中,磁盘 1 标记为“丢失”,磁盘 3 标记为“降级”。我强制备份磁盘 3,并用新硬盘驱动器(相同大小)替换磁盘 1。BIOS 检测到这一点并开始重建磁盘 1 - 但是它卡在了 %1。旋转进度指示器整晚都没有移动;完全冻结。
我在这里有哪些选择?除了使用一些专业的数据恢复服务,还有什么方法可以尝试重建?两个硬盘怎么会同时出现故障?似乎过于巧合。是否有可能是磁盘 1 发生故障,从而导致磁盘 3“不同步”?如果是这样,是否有任何实用程序可以用来“同步”恢复它?
我们在 Linux(当前为 2.6.37)上使用 RAID1+0 和 md 创建一个 md 设备,然后使用 LVM 在设备之上提供卷管理,然后使用 ext4 作为我们在 LVM 卷组上的文件系统。
使用 SSD 作为驱动器,我们希望看到 TRIM 命令通过层(ext4 -> LVM -> md -> SSD)传播到设备。
看起来最近的 2.6.3x 内核添加了许多与 SSD 相关的新 TRIM 支持,包括对 Device Mapper 场景的更多覆盖,但我们似乎仍然无法使其正确级联。
这还有可能吗?如果是这样,如何?如果没有,是否有任何进展?
曾几何时,当我需要大约 6 个或更多硬盘驱动器时,我被教导在至少两个零售商之间分配订单,当订单达到大约 20 个或更多驱动器时分配三个。使用相同品牌和型号的磁盘,但从不同的地方采购它们(这是在所有磁盘完全匹配的情况下raid卡才能正常工作的时代)。安装磁盘时,请确保每个 RAID 阵列都混合了来自每个来源的磁盘。
这样做的目的是防止出现问题,如果磁盘数量过多,而供应商只是将它们按顺序添加到您的货件中。这可能会导致同一 RAID 阵列中的多个磁盘几乎同时发生故障,这可能意味着数据丢失。
这仍然是好的指导,还是最合理的企业供应商(即:不是主要与消费者打交道的 newegg、tiger direct 或 amazon)了解情况并且现在正确处理它?是否在制造商级别进行处理(制造运行在供应商交付之前被分解)?这是你必须要求的吗?还是我只是担心太多?
如果我的问题没有任何意义,请告诉我,因为由于我缺乏这方面的技术知识,我不确定我是否从我的想法中正确解释了它。
如果我使用的主板具有 SFF-8087 至 4x 电缆的连接,例如此SFF-8087 至 4x SATA连接。
我仍在学习 SAS,但被告知要利用这些联系从潜在雇主那里构建一个系统。但是,我只是不确定我是否理解系统将如何处理通过此电缆进入 SAS 端口的 SATA 连接的概念。
另外,与将 SATA 驱动器直接连接到 SATA 主板端口相比,这样做有什么好处?我相信内置的 SAS 连接可能是一个集成的 RAID 控制器。
虽然,是的,我可以继续连接所有适合的电缆,但我想更好地了解我在做什么,例如: