我们目前正在尝试使用最新的 Ubuntu Live CD 在运行 HP Ml110 G5 SATA RAID 控制器的服务器上运行访问数据。我们需要删除一些文件才能让服务器启动到 Windows 但无法挂载分区。
我们可以通过磁盘管理程序看到单个磁盘,但无法挂载分区,有没有人有什么建议?
描述
今天,我插入了另一个硬盘驱动器并拔掉了我的RAID 驱动器,以确保在擦除驱动器时不会意外选择错误的驱动器。
现在我已经重新插入我的驱动器,软件 raid 1 阵列不再被安装/识别/找到。使用磁盘实用程序,我可以看到驱动器是 /dev/sda 和 /dev/sdb,所以我尝试运行sudo mdadm -A /dev/sda /dev/sdb
不幸的是,我一直收到一条错误消息,指出mdadm: device /dev/sda exists but is not an md array
规格:
操作系统:Ubuntu 12.04 LTS 桌面(64 位)
驱动器:安装在第三个驱动器上的 2 个 3TB WD Red(相同型号全新)操作系统(64GB ssd)(许多 linux 安装)
主板: P55 FTW
处理器:Intel i7-870全规格
的结果 sudo mdadm --assemble --scan
mdadm: No arrays found in config file or automatically
当我从恢复模式启动时,我会收到无数个“ata1 错误”代码飞了很长时间。
谁能告诉我恢复阵列的正确步骤?
如果这是重建阵列的可能替代方案,我会很高兴恢复数据。我已经阅读了关于“测试磁盘”的内容,它在 wiki 上声明它可以找到 Linux RAID md 0.9/1.0/1.1/1.2 丢失的分区,但我似乎正在运行 mdadm 3.2.5 版。有没有其他人有使用它来恢复软件 raid 1 数据的经验? …
我在 Ubuntu Server 上有一个 NAS,在 RAID 5 中有 4 个 2TB 硬盘。几周前,其中一个硬盘坏了,但我的 RAID 正在工作,虽然降级了。幸运的是,它仍在保修期内,我收到了一个我今天安装的新硬盘。但是,当尝试将新硬盘添加到 RAID 时,它并没有重建。所以我拔掉了硬盘驱动器并重新启动了机器。但是,我不小心将 RAID 中的其他硬盘驱动器之一设置为失败并使用 mdadm 将其删除。
现在它说我的 RAID 有两个已移除的硬盘驱动器。我的第 3 个硬盘驱动器仍然保留所有数据,但我不知道如何将其重新添加回 RAID 阵列,因此它恢复到良好(尽管已降级)状态,因此我可以继续添加第 4 个硬盘驱动器并重建阵列。是否有可能让 Ubuntu 意识到第三个硬盘驱动器有我的数据,并再次将其识别为阵列的一部分?
当我尝试运行时:
sudo mdadm --manage /dev/md127 --re-add /dev/sdd1
Run Code Online (Sandbox Code Playgroud)
它说:
mdadm: --re-add for /dev/sdd1 to dev/md127 is not possible
Run Code Online (Sandbox Code Playgroud)
请,任何人都可以提供的任何帮助将不胜感激。
在以前的 ubuntu 版本中,添加BOOT_DEGRADED=true
到/etc/initramfs-tools/conf.d/mdadm
允许系统在根文件系统位于降级阵列上时自动启动。这似乎不再适用于 16.04 LTS。
文档(https://help.ubuntu.com/lts/serverguide/advanced-installation.html)看起来已经过时;sudo dpkg-reconfigure mdadm
不再要求允许降级启动,bootdegraded=true
内核参数似乎也不再起作用。当根文件系统阵列降级时,系统总是引导到 initramfs。从那里,mdadm -IRs
允许系统启动。
当根文件系统位于 16.04LTS 中降级的 RAID1 阵列上时,如何启用自动引导?
我在家庭服务器上使用 Ubuntu 12.04。有 5 个硬盘驱动器:一个带有操作系统的 SSD 和使用 mdadm 配置为 RAID5 的 4 个 HDD (Samsung HD204UI)。
我并不经常需要 RAID(比如说,平均每天大约一次);它包含多媒体数据和一些备份,因此我决定大部分时间将驱动器置于待机状态。
我使用 hdparm 将驱动器配置为在 20 分钟后自动降速,这里/dev/sda
作为示例:
hdparm -S 240 /dev/sda
Run Code Online (Sandbox Code Playgroud)
命令的输出证实了这一点:
/dev/sdb:
setting standby to 240 (20 minutes)
Run Code Online (Sandbox Code Playgroud)
但问题是驱动器在上次访问后约 5 秒(而不是 20 分钟)后旋转,并且
hdparm -C /dev/sdb
Run Code Online (Sandbox Code Playgroud)
显示:
/dev/sdb:
drive state is: standby
Run Code Online (Sandbox Code Playgroud)
为什么驱动器没有按照配置等待 20 分钟?它与RAID设置有关吗?(我不这么认为...)
这个非常短的超时是有问题的,因为它是一个 RAID5,当我访问一个文件时,它会在四个驱动器周围按块分布。由于读取驱动器 2 时不需要驱动器 1,因此在下次使用时(从驱动器 3 读取后)它进入休眠状态。因此,驱动器始终上下旋转,导致吞吐量接近于零。
对于关心我的驱动器寿命的人:驱动器平均每天上下旋转一次是没有问题的,因为我更喜欢节省能源和热量而不是驱动器的健康状况(我使用 RAID5 并且内容是不是很重要)。
我正在尝试在我的新 PC 上安装 Ubuntu 16.04 以使用 Windows 10 双启动。我使用的是 MSI Z170A 主板和两个 512GB M.2 驱动器。我的目标是对两个驱动器进行 RAID-0,并将单个 RAID 卷分成三个分区 - 一个用于 Windows 10,一个用于 Ubuntu,一个用于共享。
为此,我首先从闪存驱动器加载了 Windows 10,并在安装过程中从同一闪存驱动器加载了英特尔 RST 驱动程序。我没有继续安装 Windows,而是重新启动,并在 BIOS 中设置了 RAID 卷。我再次重新启动,这次我在单个 RAID 卷上创建了三个分区,然后在这些分区之一上完成 Windows 10 的安装。
现在,我正在尝试从 Rufus 创建的闪存驱动器安装 Ubuntu 16.04。我可以从闪存驱动器成功启动;但是,当我尝试继续安装时,Ubuntu 没有看到任何可以安装的可用卷。
我知道 mdadm 实用程序,但我不确定 (1) 在哪里以及如何实际使用它,以及 (2) 它是否会真正识别我创建的软件 RAID;我的目标不是创建新的 RAID 卷,而是识别现有的。如果鉴于我当前的配置无法做到这一点,我想弄清楚如何实现在条带化 RAID-0 上运行双引导机器的总体目标。
我在重新布置桌子后面的一些电缆时不小心拔掉了我的 eSATA 电缆,并使我的 RAID 阵列脱机。
我相信驱动器很好,但它们现在显示为“已删除”状态,我该如何重新初始化阵列?
mdadm --detail /dev/md1
显示:
/dev/md1:
Version : 00.90
Creation Time : Wed Oct 20 20:00:41 2010
Raid Level : raid5
Array Size : 5860543488 (5589.05 GiB 6001.20 GB)
Used Dev Size : 1953514496 (1863.02 GiB 2000.40 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 1
Persistence : Superblock is persistent
Update Time : Mon Oct 3 18:39:41 2011
State : clean, degraded
Active Devices : 0
Working Devices : 0 …
Run Code Online (Sandbox Code Playgroud) 当update-grub
在新安装的 Ubuntu 12.04 上使用旧软件 RAID (md) 运行时,我得到:
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
Generating grub.cfg ...
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous RAID member (5 found).
error: superfluous …
Run Code Online (Sandbox Code Playgroud) 我想知道在现有服务器上设置软件 RAID 阵列的正确方法。我有两个全新的 3TB 磁盘用于阵列。
Specifically, I want to set up a 3TB RAID 1 array, formatted to ext4, not using LVM. But a more general answer might help others with instructions from start to finish.
I have tried a number of guides: