标签: mdadm

如何将已安装的系统迁移到 RAID1?

我有一台从单个 80Gb HDD 驱动器启动的家庭服务器(Ubuntu Server 10.04),现在我想让它从 2x500Gb RAID-1 启动。我已经通过 MDADM 成功创建了它。

但是我怎样才能将系统移动到这个阵列以便它可以启动呢?

我在互联网上看到过一些关于添加第二个硬盘和制作 RAID1 的指南,但这不是我的情况......

boot raid mdadm

5
推荐指数
1
解决办法
2320
查看次数

是否可以暂停/中止 mdadm reshape?

星期六,我向 mdadm 阵列添加了一个新驱动器,并且重塑过程需要很长时间。不幸的是,一场可怕的风暴即将来临,我可能会断电,这可能会对我的 mdadm 增长操作产生不利影响。

当前状态

# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sdh1[6] sdc1[0] sdg1[5] sdf1[3] sde1[2] sdd1[1]
    11720534016 blocks super 1.2 level 5, 512k chunk, algorithm 2 [6/6] [UUUUUU]
    [=====>...............]  reshape = 25.9% (759125024/2930133504) finish=4091.0min speed=8844K/sec
Run Code Online (Sandbox Code Playgroud)

mdadm --详细信息 /dev/md0

 mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Sat Mar 23 07:41:24 2013
     Raid Level : raid5
     Array Size : 11720534016 (11177.57 GiB 12001.83 GB)
  Used Dev …
Run Code Online (Sandbox Code Playgroud)

raid mdadm

5
推荐指数
2
解决办法
2万
查看次数

我可以在重新同步时将数据安全地写入 RAID-1 ARRAY 吗?

同步完成后,文件是否会在阵列上的所有驱动器中?
如果在同步过程中磁盘出现故障怎么办?

sync raid mdadm

5
推荐指数
1
解决办法
7456
查看次数

妈妈。磁盘已经是阵列的一部分

我正在尝试删除我的 RAID 阵列并重新启动,因为一些烦人的错误列出了我的 gpt 已损坏。我使用 gparted 删除了磁盘上的所有信息,因此每个驱动器上都显示“未分配”。然后,我尝试使用下面的命令创建一个阵列,但它总是显示“/dev/sdX 似乎是 raid 阵列的一部分”。我如何解决它?它不是阵列的一部分,任何磁盘上甚至都没有文件系统!

$ sudo mdadm --create /dev/md0 --level=linear --raid-devices=5 /dev/sda /dev/sdb /dev/sdd /dev/sde /dev/sdf
mdadm: /dev/sda appears to be part of a raid array:
level=raid0 devices=0 ctime=Thu Jan  1 01:00:00 1970
mdadm: partition table exists on /dev/sda but will be lost or
   meaningless after creating array
mdadm: /dev/sdb appears to be part of a raid array:
level=raid0 devices=0 ctime=Thu Jan  1 01:00:00 1970
mdadm: partition table exists on /dev/sdb but will be …
Run Code Online (Sandbox Code Playgroud)

mdadm

5
推荐指数
1
解决办法
7884
查看次数

“mdadm:conf 文件中找到重复的 MD 设备名称。”

问题:

\n\n

当我启动我的 Ubuntu 16.04(服务器)盒子时。我陷入 Busybox V1.22.1 (initramfs) 提示符中,收到一条消息 \xe2\x80\x9cmdadm: 在conf 文件中找到重复的 MD 设备名称。\xe2\x80\x9d

\n\n

很高兴知道详细信息:

\n\n
    \n
  • 当我对我的 raid 阵列进行更改时,我将所有数据保存到另一台设备上,因此我不担心丢失数据。
  • \n
  • 当我进行raid更改时,出现了这个问题。我已经删除了位于 sdc、sdd 和 sde 上的主 md raid 5 阵列。
  • \n
  • 我的服务器启动到 md1,md0 是我的交换文件,这两个文件都是 sda 和 sdb 上的跨设备。
  • \n
  • 我试图从跨区驱动器移动我的 /home 目录。我的\n最终目标是将 /、/home 移动到 SDD 驱动器。
  • \n
  • 我尝试重新安装 Ubuntu,但遇到了麻烦(我认为这与 Gigabyte 970A-DS3P FX 主板有关,基本上我无法启动到 Ubuntu live USB)。
  • \n
  • 我的服务器没有 CD/DVD/蓝光驱动器(因此使用 USB\n驱动器)。
  • \n
\n\n

错误信息:

\n\n
...\nBegin:  Running /scripts/local-block ... mdadm:  Devices UUID-7c2dfe28-c4b7-8646-c114-3a6e9b415836 and UUID--7c2dfe28-c4b7-8646-c114-3a6e9b415836 have the same name: /dev/md/0\nmdadm:  Duplicate …
Run Code Online (Sandbox Code Playgroud)

server boot mdadm initramfs 16.04

5
推荐指数
2
解决办法
7807
查看次数

每次重新启动后 mdadm 检查 RAID 5 阵列

系统信息:Ubuntu 20.04 Software raid 5(添加了第三个硬盘并从 raid 1 转换)。FS 是 LUKS 之上的 Ext4。

我发现重新启动后系统速度变慢,因此我通过 proc/mdstat 检查了阵列状态,它显示以下内容:

Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : active raid5 sdb[2] sdc[0] sdd[1]
      7813772928 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]
      [==>..................]  check = 14.3% (558996536/3906886464) finish=322.9min speed=172777K/sec
      bitmap: 0/30 pages [0KB], 65536KB chunk
unused devices: <none>
Run Code Online (Sandbox Code Playgroud)

正在重新检查,但不知道为什么。没有 cron 作业设置。这是日志条目,在系统转换为 RAID5 之后,每次重新启动后都会出现该日志条目,但我不确定是否每次都重新检查:

Jan  3 14:34:47 <sysname> kernel: [    3.473942] md/raid:md0: device sdb operational as raid disk 2 …
Run Code Online (Sandbox Code Playgroud)

server mdadm hard-drive raid5

5
推荐指数
1
解决办法
3129
查看次数

Ubuntu Server 12.04,MDADM 设备号突然变了?

我遇到了一个非常烦人的错误,我已经用 mdadm 设置了一个软件 RAID1,并且设置结果很好

/dev/md/lucas.mgscreativa.com.ar:0

我也像这样配置了 mdadm.conf

DEVICE /dev/sda /dev/sdb

# auto-create devices with Debian standard permissions CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts MAILADDR root

# definitions of existing MD arrays ARRAY /dev/md/lucas.mgscreativa.com.ar:0 metadata=1.2
name=lucas.mgscreativa.com.ar:0
UUID=c913486a:e62c7ea1:cfb98b6b:253d1f62
Run Code Online (Sandbox Code Playgroud)

和 fstab 这样配置

/dev/md/lucas.mgscreativa.com.ar:0 /media/data     ext4
defaults,noatime      0       0
Run Code Online (Sandbox Code Playgroud)

但是,有一天,我的数组名称突然从 /dev/md/lucas.mgscreativa.com.ar:0 更改为 /dev/md0,因此我对 fstab 和 mdadm.conf 进行了一些更改(当然,在几小时后和数小时的尝试和错误),一切顺利,但今天,再次,MD 编号从 /dev/md0 更改为 /dev/md127 !!! …

server raid mdadm

4
推荐指数
1
解决办法
9571
查看次数

让 Killer Wireless-AC 1535 安装 Ubuntu 16.04

我的无线设备是168c:003e:1a56:1353rev 32。安装程序包含一个4.4.0-21-lowlatency内核,我在/lib/firmware/ath10k/QCA6174/hw3.0 There is a board.binand 中看到固件文件firmware-4.bin。这些是库存文件。在dmesg我看到初始化失败,这是真的,我什至在ifconfig. 在初始化期间,它正在寻找一个firmware-5.bin不存在的 。

首先我尝试添加在这里煮熟的firmware-5.bin:https : //github.com/kvalo/ath10k-firmware/pull/4/files

那没有帮助,文件中的魔法不匹配。我想它已经煮熟了 4.2 或什么的。然后我尝试使用officialrepo https://github.com/kvalo/ath10k-firmware/tree/master/QCA6174/hw3.0中的所有文件(由http://www.killernetworking.com/support推荐/knowledge-base/17-linux/20-killer-wireless-ac-in-linux-ubuntu-debian)。魔法不匹配。

由于我处于安装的开始阶段,因此重新启动对我来说不是一个选项,这是一个 22 项。相反,我写了一个小脚本modprobe -rs ^ ath10k_pciath10k_coreathmac80211cfg80211。另一个脚本insmod以相反的顺序执行这些操作。

我还通过https://github.com/kvalo/ath10k-firmware/pull/3尝试了 board-2.bin 。魔法不匹配。


更多信息。安装程序/lib/firmware/ath10k/QCA6174/hw3.0固件目录的初始/原始状态:

-rw-r--r-- 1 root root   8124 Mar 21 12:27 board.bin
-rw-r--r-- 1 root root 733784 Mar …
Run Code Online (Sandbox Code Playgroud)

firmware wireless mdadm 16.04

4
推荐指数
1
解决办法
2万
查看次数

在另一块主板上重新组装 Intel RST RAID

我解决了

解决方案在我自己的答案中(参见我的下一篇文章)。这篇文章仅描述了我最初的问题和我尝试过的方法。

不过,这可能会给你一些提示……也可能不是。

我解决了它结束

首先我对Linux还很陌生。事情是这样的。我的旧电脑主板已经让我失望了。没问题,我只是再见一个新的。然而,我愚蠢地使用了英特尔的 RST,它安装在旧主板上,但没有安装在新主板上。现在的问题是,是否可以在没有英特尔 RST 引导扩展的情况下恢复 RST raid?看起来这些磁盘并没有自动组装成一卷。在我看来这是可能的,但是当涉及到 raid 和磁盘/分区管理时,我的知识几乎仅限于 gparted。

到目前为止,我发现两个磁盘的 blkid 给出(并且仅给出):

/dev/sdb: TYPE="isw_raid_member"
/dev/sda: TYPE="isw_raid_member"
Run Code Online (Sandbox Code Playgroud)

看起来还不错。

mdadm -E 给我:

mdadm -E /dev/sdb /dev/sda
mdadm: /dev/sdb is not attached to Intel(R) RAID controller.
mdadm: /dev/sdb is not attached to Intel(R) RAID controller.
/dev/sdb:
          Magic : Intel Raid ISM Cfg Sig.
        Version : 1.0.00
    Orig Family : 3ad31c33
         Family : 3ad31c33
     Generation : 000006b7
     Attributes : All supported
           UUID : f508b5ef:ce7013f7:fcfe0803:ba06d053
       Checksum : 0798e757 correct
    MPB Sectors …
Run Code Online (Sandbox Code Playgroud)

raid mdadm intel rst

4
推荐指数
1
解决办法
4581
查看次数

mdadm 数组,安装系统管理设备 /dev/md0 时出错:无法读取 /dev/md0 上的超级块

您好,我的 16Tb (5x4tb) mdadm 阵列遇到问题。它工作正常,直到我断电或强行关闭机器,然后重新启动并尝试访问它时,我收到错误消息“无法访问位置 - 安装系统管理设备 /dev/md0 时出错:可以” t 读取 /dev/md0 上的超级块”

最令人沮丧的是,六个月前它又恢复正常了,但我很白痴,没有写下我做了什么。所以我知道它是可能的,我不应该丢失任何数据,我记得它相当简单,但我不记得我做了什么。

我运行了 mdadm --detail 这就是我得到的

/dev/md0:        Version : 1.2
  Creation Time : Wed Jun  6 17:31:25 2018
     Raid Level : raid5
     Array Size : 15627548672 (14903.59 GiB 16002.61 GB)
  Used Dev Size : 3906887168 (3725.90 GiB 4000.65 GB)
   Raid Devices : 5
  Total Devices : 5
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Tue Apr  2 16:06:18 2019
          State : clean 
 Active …
Run Code Online (Sandbox Code Playgroud)

mdadm

3
推荐指数
1
解决办法
5409
查看次数

标签 统计

mdadm ×10

raid ×5

server ×3

16.04 ×2

boot ×2

firmware ×1

hard-drive ×1

initramfs ×1

intel ×1

raid5 ×1

rst ×1

sync ×1

wireless ×1