按照以下步骤安装 Ubuntu 16.04 后,每次启动时都会收到“未知命令 hwmatch”消息:https ://gist.github.com/umpirsky/6ee1f870e759815333c8以设置 RAID0。
特别关注apt-get install -y grub-efi-amd64
部分https://gist.github.com/umpirsky/6ee1f870e759815333c8#file-ubuntu-raid-sh-L40
由于某种原因,我无法使用 apt-get,所以我手动安装了它,下载 deb 并使用 dpkg -i。
有一个与此错误相关的错误报告https://bugs.launchpad.net/ubuntu/+source/grub2/+bug/733836。
系统正常启动,但我想修复此错误。有没有办法更新配置并修复它?
更新:使用该系统一个月后,有一天它无法启动并出现此错误,最终出现在 initramfs 提示中,我从 clonezilla 备份中恢复了它,但我担心它会再次发生。最糟糕的是,我不知道为什么会这样。
更新:
它一次又一次地发生,通常是在强制关机或用完batterx 之后。我启动了实时 USB 并运行 fsck:
sudo fsck /dev/sda1
fsck from util-linux 2.20.1
fsck.fat 3.0.26 (2014-03-07)
0x41: Dirty bit is set. Fs was not properly unmounted and some data may be corrupt.
1) Remove dirty bit
2) No action
? 2
There are differences between boot sector and its …
Run Code Online (Sandbox Code Playgroud) 我有一个旧的 Dell PowerEdge 1950,带有连接三个硬盘驱动器的 LSA SAS 卡。我正在运行 Ubuntu 16.04 服务器。当我运行以下命令时:
sudo mkfs.btrfs -d raid6 -f /dev/sdc /dev/sdd /dev/sde
Run Code Online (Sandbox Code Playgroud)
我得到
btrfs-progs v4.4
See http://btrfs.wiki.kernel.org for more information.
ERROR: unable to open /dev/sdc: Device or resource busy
Run Code Online (Sandbox Code Playgroud)
驱动器尚未安装:
mount | grep /dev/sd
/dev/sda1 on / type btrfs (rw,relatime,space_cache,subvolid=257,subvol=/@)
/dev/sda1 on /home type btrfs (rw,relatime,space_cache,subvolid=258,subvol=/@home)
Run Code Online (Sandbox Code Playgroud)
我也注意到这些设备没有列出第一个分区的文件,例如 /dev/sdd1,但我已经成功分区
sudo fdisk -l
Disk /dev/sdc: 279.4 GiB, 300000000000 bytes, 585937500 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / …
Run Code Online (Sandbox Code Playgroud) 我有一个具有以下特征的服务器:
CPU:英特尔酷睿 i7-2600
PLUSRAID 控制器 4 端口 SATA PCI-E - Adaptec 5405
每个一个,SATA SSD,240 GB
每个两个,SATA HDD,3.0 TB Enterprise
两个,8 GB DDR3 RAM
我在上面安装了Ubuntu,但是显示的空间是这样的,远远小于真实容量:
root@ns1 /boot # lsblk 名称 MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sdb 8:16 1 238.4G 0 盘 ??sdb2 8:18 1 512M 0 部分 ? ??md1 9:1 0 511.4M 0 raid1 /boot ??sdb3 8:19 1 229.9G 0 部分 ? ??md2 9:2 0 229.8G 0 raid1 / ??sdb1 8:17 1 8G 0 部分 ??md0 9:0 0 8G 0 …
看起来 mdadm 进行奇偶校验检查的时间及其控制方式发生了一些变化。它通常在每月第一个星期日凌晨 1 点左右开始,并由 cron 条目启动。现在看起来它是在第一个周日的早上 5 点左右开始,并且有一个新功能可以暂停它(当系统正在使用时?),然后在奇怪的(随机的?)时间重新启动它,比如工作日的上午 8 点。我不再看到任何与此相关的 cron 条目,所以我不确定它是如何控制的。
有人可以告诉我吗...
我想改变行为,以便它在凌晨而不是白天重新启动。
我有一个带有 LVM2 卷组的 320GB 硬盘驱动器,该卷组是作为默认安装的一部分创建的。如果我将第二个 320GB 硬盘驱动器放入计算机,我可以使用 Linux 软件 RAID1 或类似软件将第二个驱动器镜像为第一个驱动器吗?我尝试在 Gnome 磁盘实用程序中添加一个新的 RAID 阵列,但它只给了我创建具有两个空分区的阵列的选项。
重启电源后,我发现我的 RAID 5 阵列不再工作。我尝试了各种方法来重新组装阵列,但到目前为止没有任何效果。我相信我需要以某种方式重新创建超级块和 UUID,但不愿意进入某些东西以免丢失一堆数据。谢谢阅读。
cat /etc/mdadm/mdadm.conf
:
DEVICE partitions
ARRAY /dev/md0 level=raid5 num-devices=4 metadata=0.90 UUID=fd522a0f:2de72d76:f2afdfe9:5e3c9df1
MAILADDR root
Run Code Online (Sandbox Code Playgroud)
这是正常的。它应该有 4x2000GB 驱动器(sda、sdc、sde、sdd)。
cat /proc/mdstat
:
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : inactive sdd[1](S)
1953514496 blocks
unused devices: <none>
Run Code Online (Sandbox Code Playgroud)
这是个问题。它只显示阵列中的一个驱动器,而且它也处于非活动状态。阵列中也应该有 sda、sdc 和 sde。当我做一个时,mdadm --examine /dev/sdd
一切看起来都很好。在其他驱动器上检查说/dev/sdX 上没有 RAID 超级块。
mdadm --examine --scan
:
ARRAY /dev/md0 level=raid5 num-devices=4 metadata=0.90 UUID=fd522a0f:2de72d76:f2afdfe9:5e3c9df1
Run Code Online (Sandbox Code Playgroud)
没有帮助。
mdadm --assemble --scan -v
:
mdadm: looking for devices for /dev/md0 …
Run Code Online (Sandbox Code Playgroud) I installed Wubi here, but when restart the pc I got the following screen:
And this "command line" "initramfs". How do I preceed from here?
--update
By the way, looks like my HD is raid. Not sure, because I really don't know how to check, and don't know if this changes anything for using Wubi.
摘要:update-initramfs 说系统无法启动,消息指向 mkconf,它建议重写 mdadm.conf 似乎会破坏 RAID,系统启动(目前)但下次重新启动可能会杀死它,不清楚如何继续,mdadm.conf 看起来很好,但是 update-initramfs 警告告诉我什么?为什么 mkconf 似乎暗示了一些不好的东西?
我在 1and1.com 上有一台运行 Ubuntu 12.04 的专用服务器,并且“update-initramfs -u”报告了一条 mdadm 错误消息,表明服务器将无法正确重启。我查看了相关的配置文件,一直没能找出问题所在。自从看到这条消息后,我没有尝试重新启动,因为我不想在我无法物理访问的服务器上“只是看看会发生什么”(如果我无法访问正在运行的系统,可能会使诊断更加困难)我可以探查信息。)我觉得我应该尝试了解错误消息和系统配置,直到我确信重新启动可能会成功为止。
首先是错误信息(来自 update-initramfs -u):
W: mdadm: the array /dev/md3 with UUID dffcb503:bc157198:3fb6082e:e5593158
W: mdadm: is currently active, but it is not listed in mdadm.conf. if
W: mdadm: it is needed for boot, then YOUR SYSTEM IS NOW UNBOOTABLE!
W: mdadm: please inspect the output of /usr/share/mdadm/mkconf, compare
W: mdadm: it to /etc/mdadm/mdadm.conf, and make the necessary changes.
W: mdadm: the array …
Run Code Online (Sandbox Code Playgroud) 我来自戴尔技术支持——我们的一位客户拥有戴尔系统型号 T5610,并安装了 2-256GB SSD 硬盘和 2-4TB 硬盘,并在基于英特尔的芯片组 (ROMB) 上配置了 2 个阵列的 RAID-0 --- 256GB硬盘是安装 Ubuntu 14.04 64 位操作系统的主要硬盘,但是当他使用 ROMB 在 2-4TB 硬盘上创建 RAID-0 时,他在 RAID BIOS 中看到 100% 硬盘容量,但在操作系统中他只能看到 3.2 TB 空间,
如果他在 RAID BIOS 中删除 RAID 并在 Ubuntu 中的操作系统级别配置相同的 RAID,那么他将获得 100% 容量----帮助赞赏,为什么在 RAID 中配置 RAID-0 时操作系统中未显示 100% 硬盘容量BIOS (ROM)