标签: mdadm

如何通过 Live CD 访问 MD RAID?

我们目前正在尝试使用最新的 Ubuntu Live CD 在运行 HP Ml110 G5 SATA RAID 控制器的服务器上运行访问数据。我们需要删除一些文件才能让服务器启动到 Windows 但无法挂载分区。

我们可以通过磁盘管理程序看到单个磁盘,但无法挂载分区,有没有人有什么建议?

10.10 mount raid mdadm

15
推荐指数
1
解决办法
4万
查看次数

软件raid - mdadm - 重新找到我的阵列

描述

今天,我插入了另一个硬盘驱动器并拔掉了我的RAID 驱动器,以确保在擦除驱动器时不会意外选择错误的驱动器。

现在我已经重新插入我的驱动器,软件 raid 1 阵列不再被安装/识别/找到。使用磁盘实用程序,我可以看到驱动器是 /dev/sda 和 /dev/sdb,所以我尝试运行sudo mdadm -A /dev/sda /dev/sdb不幸的是,我一直收到一条错误消息,指出mdadm: device /dev/sda exists but is not an md array


规格:

操作系统:Ubuntu 12.04 LTS 桌面(64 位)

驱动器:安装在第三个驱动器上的 2 个 3TB WD Red(相同型号全新)操作系统(64GB ssd)(许多 linux 安装)

主板: P55 FTW

处理器:Intel i7-870全规格


的结果 sudo mdadm --assemble --scan

mdadm: No arrays found in config file or automatically

当我从恢复模式启动时,我会收到无数个“ata1 错误”代码飞了很长时间。

谁能告诉我恢复阵列的正确步骤?

如果这是重建阵列的可能替代方案,我会很高兴恢复数据。我已经阅读了关于“测试磁盘”的内容,它在 wiki 上声明它可以找到 Linux RAID md 0.9/1.0/1.1/1.2 丢失的分区,但我似乎正在运行 mdadm 3.2.5 版。有没有其他人有使用它来恢复软件 raid 1 数据的经验? …

raid mdadm 12.04

14
推荐指数
1
解决办法
10万
查看次数

如何在 RAID5 中重新添加意外移除的硬盘

我在 Ubuntu Server 上有一个 NAS,在 RAID 5 中有 4 个 2TB 硬盘。几周前,其中一个硬盘坏了,但我的 RAID 正在工作,虽然降级了。幸运的是,它仍在保修期内,我收到了一个我今天安装的新硬盘。但是,当尝试将新硬盘添加到 RAID 时,它并没有重建。所以我拔掉了硬盘驱动器并重新启动了机器。但是,我不小心将 RAID 中的其他硬盘驱动器之一设置为失败并使用 mdadm 将其删除。

现在它说我的 RAID 有两个已移除的硬盘驱动器。我的第 3 个硬盘驱动器仍然保留所有数据,但我不知道如何将其重新添加回 RAID 阵列,因此它恢复到良好(尽管已降级)状态,因此我可以继续添加第 4 个硬盘驱动器并重建阵列。是否有可能让 Ubuntu 意识到第三个硬盘驱动器有我的数据,并再次将其识别为阵列的一部分?

当我尝试运行时:

sudo mdadm --manage /dev/md127 --re-add /dev/sdd1 
Run Code Online (Sandbox Code Playgroud)

它说:

mdadm: --re-add for /dev/sdd1 to dev/md127 is not possible
Run Code Online (Sandbox Code Playgroud)

请,任何人都可以提供的任何帮助将不胜感激。

raid mdadm nas

14
推荐指数
1
解决办法
4万
查看次数

如何在 16.04LTS 中启用降级 RAID1 启动?

在以前的 ubuntu 版本中,添加BOOT_DEGRADED=true/etc/initramfs-tools/conf.d/mdadm允许系统在根文件系统位于降级阵列上时自动启动。这似乎不再适用于 16.04 LTS。

文档(https://help.ubuntu.com/lts/serverguide/advanced-installation.html)看起来已经过时;sudo dpkg-reconfigure mdadm不再要求允许降级启动,bootdegraded=true内核参数似乎也不再起作用。当根文件系统阵列降级时,系统总是引导到 initramfs。从那里,mdadm -IRs允许系统启动。

当根文件系统位于 16.04LTS 中降级的 RAID1 阵列上时,如何启用自动引导?

boot raid mdadm

14
推荐指数
3
解决办法
1万
查看次数

X 分钟后使用 hdparm 将硬盘置于待机状态不起作用

我在家庭服务器上使用 Ubuntu 12.04。有 5 个硬盘驱动器:一个带有操作系统的 SSD 和使用 mdadm 配置为 RAID5 的 4 个 HDD (Samsung HD204UI)。

我并不经常需要 RAID(比如说,平均每天大约一次);它包含多媒体数据和一些备份,因此我决定大部分时间将驱动器置于待机状态。

我使用 hdparm 将驱动器配置为在 20 分钟后自动降速,这里/dev/sda作为示例:

hdparm -S 240 /dev/sda
Run Code Online (Sandbox Code Playgroud)

命令的输出证实了这一点:

/dev/sdb:
 setting standby to 240 (20 minutes)
Run Code Online (Sandbox Code Playgroud)

但问题是驱动器在上次访问后约 5 秒(而不是 20 分钟)后旋转,并且

hdparm -C /dev/sdb
Run Code Online (Sandbox Code Playgroud)

显示:

/dev/sdb:
 drive state is:  standby
Run Code Online (Sandbox Code Playgroud)

为什么驱动器没有按照配置等待 20 分钟?它与RAID设置有关吗?(我不这么认为...)

这个非常短的超时是有问题的,因为它是一个 RAID5,当我访问一个文件时,它会在四个驱动器周围按块分布。由于读取驱动器 2 时不需要驱动器 1,因此在下次使用时(从驱动器 3 读取后)它进入休眠状态。因此,驱动器始终上下旋转,导致吞吐量接近于零。

对于关心我的驱动器寿命的人:驱动器平均每天上下旋转一次是没有问题的,因为我更喜欢节省能源和热量而不是驱动器的健康状况(我使用 RAID5 并且内容是不是很重要)。

raid power-management mdadm hard-drive

13
推荐指数
1
解决办法
4万
查看次数

如何在 Intel RST RAID-0 上安装 Ubuntu?

我正在尝试在我的新 PC 上安装 Ubuntu 16.04 以使用 Windows 10 双启动。我使用的是 MSI Z170A 主板和两个 512GB M.2 驱动器。我的目标是对两个驱动器进行 RAID-0,并将单个 RAID 卷分成三个分区 - 一个用于 Windows 10,一个用于 Ubuntu,一个用于共享。

为此,我首先从闪存驱动器加载了 Windows 10,并在安装过程中从同一闪存驱动器加载了英特尔 RST 驱动程序。我没有继续安装 Windows,而是重新启动,并在 BIOS 中设置了 RAID 卷。我再次重新启动,这次我在单个 RAID 卷上创建了三个分区,然后在这些分区之一上完成 Windows 10 的安装。

现在,我正在尝试从 Rufus 创建的闪存驱动器安装 Ubuntu 16.04。我可以从闪存驱动器成功启动;但是,当我尝试继续安装时,Ubuntu 没有看到任何可以安装的可用卷。

我知道 mdadm 实用程序,但我不确定 (1) 在哪里以及如何实际使用它,以及 (2) 它是否会真正识别我创建的软件 RAID;我的目标不是创建新的 RAID 卷,而是识别现有的。如果鉴于我当前的配置无法做到这一点,我想弄清楚如何实现在条带化 RAID-0 上运行双引导机器的总体目标。

partitioning boot dual-boot raid mdadm

12
推荐指数
1
解决办法
1万
查看次数

如何修复我的软件 RAID5 磁盘?

我在重新布置桌子后面的一些电缆时不小心拔掉了我的 eSATA 电缆,并使我的 RAID 阵列脱机。

我相信驱动器很好,但它们现在显示为“已删除”状态,我该如何重新初始化阵列?

mdadm --detail /dev/md1 显示:

/dev/md1:
        Version : 00.90
  Creation Time : Wed Oct 20 20:00:41 2010
     Raid Level : raid5
     Array Size : 5860543488 (5589.05 GiB 6001.20 GB)
  Used Dev Size : 1953514496 (1863.02 GiB 2000.40 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 1
    Persistence : Superblock is persistent

    Update Time : Mon Oct  3 18:39:41 2011
          State : clean, degraded
 Active Devices : 0
Working Devices : 0 …
Run Code Online (Sandbox Code Playgroud)

mdadm

11
推荐指数
1
解决办法
9960
查看次数

在两台设备上安装带有 RAID 1 的 Ubuntu 20.04 Focal Fossa

我想在具有两个硬盘且使用 RAID 1 的机器上安装 Ubuntu 20.04 Focal Fossa。

不幸的是,这似乎不起作用。如果我使用“创建软件 RAID (md)”选项并选择我的两个磁盘,安装程序会告诉我:

如果将所有磁盘都放入 RAID 或 LVM VG,则引导分区将无处可放。

我在18.04 上找到了这个详细的答案,但是这个问题和关于这个主题的类似 发现的问题是 Focal 放弃了替代安装程序,因此所需的分区选项消失了。

我有哪些选择来实现这一目标?

server partitioning raid mdadm 20.04

10
推荐指数
2
解决办法
3万
查看次数

我是否必须担心“错误:多余的 RAID 成员”?

update-grub在新安装的 Ubuntu 12.04 上使用旧软件 RAID (md) 运行时,我得到:

error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
Generating grub.cfg ...
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous …
Run Code Online (Sandbox Code Playgroud)

grub2 raid mdadm

9
推荐指数
1
解决办法
5224
查看次数

如何创建具有 >2TB 磁盘的 RAID 阵列?

我想知道在现有服务器上设置软件 RAID 阵列的正确方法。我有两个全新的 3TB 磁盘用于阵列。

Specifically, I want to set up a 3TB RAID 1 array, formatted to ext4, not using LVM. But a more general answer might help others with instructions from start to finish.

I have tried a number of guides:

server raid mdadm

9
推荐指数
1
解决办法
3万
查看次数

标签 统计

mdadm ×10

raid ×9

boot ×2

partitioning ×2

server ×2

10.10 ×1

12.04 ×1

20.04 ×1

dual-boot ×1

grub2 ×1

hard-drive ×1

mount ×1

nas ×1

power-management ×1