我有一台从单个 80Gb HDD 驱动器启动的家庭服务器(Ubuntu Server 10.04),现在我想让它从 2x500Gb RAID-1 启动。我已经通过 MDADM 成功创建了它。
但是我怎样才能将系统移动到这个阵列以便它可以启动呢?
我在互联网上看到过一些关于添加第二个硬盘和制作 RAID1 的指南,但这不是我的情况......
星期六,我向 mdadm 阵列添加了一个新驱动器,并且重塑过程需要很长时间。不幸的是,一场可怕的风暴即将来临,我可能会断电,这可能会对我的 mdadm 增长操作产生不利影响。
# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sdh1[6] sdc1[0] sdg1[5] sdf1[3] sde1[2] sdd1[1]
11720534016 blocks super 1.2 level 5, 512k chunk, algorithm 2 [6/6] [UUUUUU]
[=====>...............] reshape = 25.9% (759125024/2930133504) finish=4091.0min speed=8844K/sec
Run Code Online (Sandbox Code Playgroud)
mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sat Mar 23 07:41:24 2013
Raid Level : raid5
Array Size : 11720534016 (11177.57 GiB 12001.83 GB)
Used Dev …
Run Code Online (Sandbox Code Playgroud) 同步完成后,文件是否会在阵列上的所有驱动器中?
如果在同步过程中磁盘出现故障怎么办?
我正在尝试删除我的 RAID 阵列并重新启动,因为一些烦人的错误列出了我的 gpt 已损坏。我使用 gparted 删除了磁盘上的所有信息,因此每个驱动器上都显示“未分配”。然后,我尝试使用下面的命令创建一个阵列,但它总是显示“/dev/sdX 似乎是 raid 阵列的一部分”。我如何解决它?它不是阵列的一部分,任何磁盘上甚至都没有文件系统!
$ sudo mdadm --create /dev/md0 --level=linear --raid-devices=5 /dev/sda /dev/sdb /dev/sdd /dev/sde /dev/sdf
mdadm: /dev/sda appears to be part of a raid array:
level=raid0 devices=0 ctime=Thu Jan 1 01:00:00 1970
mdadm: partition table exists on /dev/sda but will be lost or
meaningless after creating array
mdadm: /dev/sdb appears to be part of a raid array:
level=raid0 devices=0 ctime=Thu Jan 1 01:00:00 1970
mdadm: partition table exists on /dev/sdb but will be …
Run Code Online (Sandbox Code Playgroud) 问题:
\n\n当我启动我的 Ubuntu 16.04(服务器)盒子时。我陷入 Busybox V1.22.1 (initramfs) 提示符中,收到一条消息 \xe2\x80\x9cmdadm: 在conf 文件中找到重复的 MD 设备名称。\xe2\x80\x9d
\n\n很高兴知道详细信息:
\n\n错误信息:
\n\n...\nBegin: Running /scripts/local-block ... mdadm: Devices UUID-7c2dfe28-c4b7-8646-c114-3a6e9b415836 and UUID--7c2dfe28-c4b7-8646-c114-3a6e9b415836 have the same name: /dev/md/0\nmdadm: Duplicate …
Run Code Online (Sandbox Code Playgroud) 系统信息:Ubuntu 20.04 Software raid 5(添加了第三个硬盘并从 raid 1 转换)。FS 是 LUKS 之上的 Ext4。
我发现重新启动后系统速度变慢,因此我通过 proc/mdstat 检查了阵列状态,它显示以下内容:
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : active raid5 sdb[2] sdc[0] sdd[1]
7813772928 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]
[==>..................] check = 14.3% (558996536/3906886464) finish=322.9min speed=172777K/sec
bitmap: 0/30 pages [0KB], 65536KB chunk
unused devices: <none>
Run Code Online (Sandbox Code Playgroud)
正在重新检查,但不知道为什么。没有 cron 作业设置。这是日志条目,在系统转换为 RAID5 之后,每次重新启动后都会出现该日志条目,但我不确定是否每次都重新检查:
Jan 3 14:34:47 <sysname> kernel: [ 3.473942] md/raid:md0: device sdb operational as raid disk 2 …
Run Code Online (Sandbox Code Playgroud) 我遇到了一个非常烦人的错误,我已经用 mdadm 设置了一个软件 RAID1,并且设置结果很好
/dev/md/lucas.mgscreativa.com.ar:0
我也像这样配置了 mdadm.conf
DEVICE /dev/sda /dev/sdb
# auto-create devices with Debian standard permissions CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts MAILADDR root
# definitions of existing MD arrays ARRAY /dev/md/lucas.mgscreativa.com.ar:0 metadata=1.2
name=lucas.mgscreativa.com.ar:0
UUID=c913486a:e62c7ea1:cfb98b6b:253d1f62
Run Code Online (Sandbox Code Playgroud)
和 fstab 这样配置
/dev/md/lucas.mgscreativa.com.ar:0 /media/data ext4
defaults,noatime 0 0
Run Code Online (Sandbox Code Playgroud)
但是,有一天,我的数组名称突然从 /dev/md/lucas.mgscreativa.com.ar:0 更改为 /dev/md0,因此我对 fstab 和 mdadm.conf 进行了一些更改(当然,在几小时后和数小时的尝试和错误),一切顺利,但今天,再次,MD 编号从 /dev/md0 更改为 /dev/md127 !!! …
我的无线设备是168c:003e:1a56:1353
rev 32。安装程序包含一个4.4.0-21-lowlatency
内核,我在/lib/firmware/ath10k/QCA6174/hw3.0
There is a board.bin
and 中看到固件文件firmware-4.bin
。这些是库存文件。在dmesg
我看到初始化失败,这是真的,我什至在ifconfig
. 在初始化期间,它正在寻找一个firmware-5.bin
不存在的 。
首先我尝试添加在这里煮熟的firmware-5.bin:https : //github.com/kvalo/ath10k-firmware/pull/4/files
那没有帮助,文件中的魔法不匹配。我想它已经煮熟了 4.2 或什么的。然后我尝试使用official
repo https://github.com/kvalo/ath10k-firmware/tree/master/QCA6174/hw3.0中的所有文件(由http://www.killernetworking.com/support推荐/knowledge-base/17-linux/20-killer-wireless-ac-in-linux-ubuntu-debian)。魔法不匹配。
由于我处于安装的开始阶段,因此重新启动对我来说不是一个选项,这是一个 22 项。相反,我写了一个小脚本modprobe -r
s ^ ath10k_pci
,ath10k_core
,ath
,mac80211
和cfg80211
。另一个脚本insmod
以相反的顺序执行这些操作。
我还通过https://github.com/kvalo/ath10k-firmware/pull/3尝试了 board-2.bin 。魔法不匹配。
更多信息。安装程序/lib/firmware/ath10k/QCA6174/hw3.0
固件目录的初始/原始状态:
-rw-r--r-- 1 root root 8124 Mar 21 12:27 board.bin
-rw-r--r-- 1 root root 733784 Mar …
Run Code Online (Sandbox Code Playgroud) 我解决了
解决方案在我自己的答案中(参见我的下一篇文章)。这篇文章仅描述了我最初的问题和我尝试过的方法。
不过,这可能会给你一些提示……也可能不是。
我解决了它结束
首先我对Linux还很陌生。事情是这样的。我的旧电脑主板已经让我失望了。没问题,我只是再见一个新的。然而,我愚蠢地使用了英特尔的 RST,它安装在旧主板上,但没有安装在新主板上。现在的问题是,是否可以在没有英特尔 RST 引导扩展的情况下恢复 RST raid?看起来这些磁盘并没有自动组装成一卷。在我看来这是可能的,但是当涉及到 raid 和磁盘/分区管理时,我的知识几乎仅限于 gparted。
到目前为止,我发现两个磁盘的 blkid 给出(并且仅给出):
/dev/sdb: TYPE="isw_raid_member"
/dev/sda: TYPE="isw_raid_member"
Run Code Online (Sandbox Code Playgroud)
看起来还不错。
mdadm -E 给我:
mdadm -E /dev/sdb /dev/sda
mdadm: /dev/sdb is not attached to Intel(R) RAID controller.
mdadm: /dev/sdb is not attached to Intel(R) RAID controller.
/dev/sdb:
Magic : Intel Raid ISM Cfg Sig.
Version : 1.0.00
Orig Family : 3ad31c33
Family : 3ad31c33
Generation : 000006b7
Attributes : All supported
UUID : f508b5ef:ce7013f7:fcfe0803:ba06d053
Checksum : 0798e757 correct
MPB Sectors …
Run Code Online (Sandbox Code Playgroud) 您好,我的 16Tb (5x4tb) mdadm 阵列遇到问题。它工作正常,直到我断电或强行关闭机器,然后重新启动并尝试访问它时,我收到错误消息“无法访问位置 - 安装系统管理设备 /dev/md0 时出错:可以” t 读取 /dev/md0 上的超级块”
最令人沮丧的是,六个月前它又恢复正常了,但我很白痴,没有写下我做了什么。所以我知道它是可能的,我不应该丢失任何数据,我记得它相当简单,但我不记得我做了什么。
我运行了 mdadm --detail 这就是我得到的
/dev/md0: Version : 1.2
Creation Time : Wed Jun 6 17:31:25 2018
Raid Level : raid5
Array Size : 15627548672 (14903.59 GiB 16002.61 GB)
Used Dev Size : 3906887168 (3725.90 GiB 4000.65 GB)
Raid Devices : 5
Total Devices : 5
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Tue Apr 2 16:06:18 2019
State : clean
Active …
Run Code Online (Sandbox Code Playgroud)