标签: raid

错误未知命令 hwmatch

按照以下步骤安装 Ubuntu 16.04 后,每次启动时都会收到“未知命令 hwmatch”消息:https ://gist.github.com/umpirsky/6ee1f870e759815333c8以设置 RAID0。

特别关注apt-get install -y grub-efi-amd64部分https://gist.github.com/umpirsky/6ee1f870e759815333c8#file-ubuntu-raid-sh-L40

由于某种原因,我无法使用 apt-get,所以我手动安装了它,下载 deb 并使用 dpkg -i。

有一个与此错误相关的错误报告https://bugs.launchpad.net/ubuntu/+source/grub2/+bug/733836

系统正常启动,但我想修复此错误。有没有办法更新配置并修复它?

更新:使用该系统一个月后,有一天它无法启动并出现此错误,最终出现在 initramfs 提示中,我从 clonezilla 备份中恢复了它,但我担心它会再次发生。最糟糕的是,我不知道为什么会这样。

更新:

它一次又一次地发生,通常是在强制关机或用完batterx 之后。我启动了实时 USB 并运行 fsck:

sudo fsck /dev/sda1
fsck from util-linux 2.20.1
fsck.fat 3.0.26 (2014-03-07)
0x41: Dirty bit is set. Fs was not properly unmounted and some data may be corrupt.
1) Remove dirty bit
2) No action
? 2
There are differences between boot sector and its …
Run Code Online (Sandbox Code Playgroud)

boot grub2 raid

7
推荐指数
2
解决办法
2万
查看次数

无法 mkfs.btrfs 错误:无法打开 /dev/sdc:设备或资源繁忙

我有一个旧的 Dell PowerEdge 1950,带有连接三个硬盘驱动器的 LSA SAS 卡。我正在运行 Ubuntu 16.04 服务器。当我运行以下命令时:

sudo mkfs.btrfs -d raid6 -f /dev/sdc /dev/sdd /dev/sde
Run Code Online (Sandbox Code Playgroud)

我得到

btrfs-progs v4.4
See http://btrfs.wiki.kernel.org for more information.

ERROR: unable to open /dev/sdc: Device or resource busy
Run Code Online (Sandbox Code Playgroud)

驱动器尚未安装:

mount | grep /dev/sd
/dev/sda1 on / type btrfs (rw,relatime,space_cache,subvolid=257,subvol=/@)
/dev/sda1 on /home type btrfs (rw,relatime,space_cache,subvolid=258,subvol=/@home)
Run Code Online (Sandbox Code Playgroud)

我也注意到这些设备没有列出第一个分区的文件,例如 /dev/sdd1,但我已经成功分区

sudo fdisk -l

Disk /dev/sdc: 279.4 GiB, 300000000000 bytes, 585937500 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / …
Run Code Online (Sandbox Code Playgroud)

server btrfs raid 16.04

7
推荐指数
2
解决办法
6902
查看次数

Ubuntu显示错误的磁盘大小,如何解决?

我有一个具有以下特征的服务器:

CPU:英特尔酷睿 i7-2600
PLUSRAID 控制器 4 端口 SATA PCI-E - Adaptec 5405
每个一个,SATA SSD,240 GB
每个两个,SATA HDD,3.0 TB Enterprise
两个,8 GB DDR3 RAM

我在上面安装了Ubuntu,但是显示的空间是这样的,远远小于真实容量:

root@ns1 /boot # lsblk
名称 MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sdb 8:16 1 238.4G 0 盘
??sdb2 8:18 1 512M 0 部分
? ??md1 9:1 0 511.4M 0 raid1 /boot
??sdb3 8:19 1 229.9G 0 部分
? ??md2 9:2 0 229.8G 0 raid1 /
??sdb1 8:17 1 8G 0 部分
  ??md0 9:0 0 8G 0 …

partitioning raid hard-drive

7
推荐指数
1
解决办法
5397
查看次数

在具有 UEFI BIOS 的计算机上安装具有 RAID 1 和 LVM 的 Ubuntu 20.04 桌面

我有一台带有 UEFI BIOS 的机器。我想在 RAID 1 之上安装带有 LVM 的 Ubuntu 20.04 桌面,这样即使其中一个驱动器出现故障,我的系统也能继续工作。我还没有找到相关的 HOWTO。20.04 桌面安装程序支持 LVM,但不支持 RAID。这个问题的答案描述了18.04的流程。但是,20.04 不提供备用服务器安装程序。这个问题这个问题的答案描述了 RAID,但没有描述 LVM 或 UEFI。有没有人有一个适用于 20.04 的流程,在 UEFI 机器的 RAID 1 之上使用 LVM?

lvm raid uefi system-installation 20.04

7
推荐指数
1
解决办法
3万
查看次数

mdadm raid 5 配对检查控制/Ubuntu 20.04 中的新行为

看起来 mdadm 进行奇偶校验检查的时间及其控制方式发生了一些变化。它通常在每月第一个星期日凌晨 1 点左右开始,并由 cron 条目启动。现在看起来它是在第一个周日的早上 5 点左右开始,并且有一个新功能可以暂停它(当系统正在使用时?),然后在奇怪的(随机的?)时间重新启动它,比如工作日的上午 8 点。我不再看到任何与此相关的 cron 条目,所以我不确定它是如何控制的。

有人可以告诉我吗...

  • 20.04 开始、暂停、重启行为在哪里控制
  • 是什么导致它暂停
  • 一般来说,现在应该如何运作

我想改变行为,以便它在凌晨而不是白天重新启动。

cron raid mdadm systemd

7
推荐指数
1
解决办法
2830
查看次数

添加新硬盘以使用 raid1 镜像现有的 LVM 驱动器

我有一个带有 LVM2 卷组的 320GB 硬盘驱动器,该卷组是作为默认安装的一部分创建的。如果我将第二个 320GB 硬盘驱动器放入计算机,我可以使用 Linux 软件 RAID1 或类似软件将第二个驱动器镜像为第一个驱动器吗?我尝试在 Gnome 磁盘实用程序中添加一个新的 RAID 阵列,但它只给了我创建具有两个空分区的阵列的选项。

raid 11.04 hard-drive

6
推荐指数
2
解决办法
1万
查看次数

MDADM 超级块恢复

重启电源后,我发现我的 RAID 5 阵列不再工作。我尝试了各种方法来重新组装阵列,但到目前为止没有任何效果。我相信我需要以某种方式重新创建超级块和 UUID,但不愿意进入某些东西以免丢失一堆数据。谢谢阅读。

cat /etc/mdadm/mdadm.conf

DEVICE partitions
ARRAY /dev/md0 level=raid5 num-devices=4 metadata=0.90 UUID=fd522a0f:2de72d76:f2afdfe9:5e3c9df1
MAILADDR root
Run Code Online (Sandbox Code Playgroud)

这是正常的。它应该有 4x2000GB 驱动器(sda、sdc、sde、sdd)。

cat /proc/mdstat

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md0 : inactive sdd[1](S)
  1953514496 blocks

unused devices: <none>
Run Code Online (Sandbox Code Playgroud)

这是个问题。它只显示阵列中的一个驱动器,而且它也处于非活动状态。阵列中也应该有 sda、sdc 和 sde。当我做一个时,mdadm --examine /dev/sdd一切看起来都很好。在其他驱动器上检查说/dev/sdX 上没有 RAID 超级块

mdadm --examine --scan

ARRAY /dev/md0 level=raid5 num-devices=4 metadata=0.90 UUID=fd522a0f:2de72d76:f2afdfe9:5e3c9df1
Run Code Online (Sandbox Code Playgroud)

没有帮助。

mdadm --assemble --scan -v

mdadm: looking for devices for /dev/md0 …
Run Code Online (Sandbox Code Playgroud)

raid 11.10 mdadm uuid

6
推荐指数
1
解决办法
9万
查看次数

Wubi doesn't start, with a "cannot mount /dev/dm-3" error

I installed Wubi here, but when restart the pc I got the following screen:

在此处输入图片说明

And this "command line" "initramfs". How do I preceed from here?

--update

By the way, looks like my HD is raid. Not sure, because I really don't know how to check, and don't know if this changes anything for using Wubi.

wubi raid

6
推荐指数
1
解决办法
1061
查看次数

来自 update-initramfs 的 mdadm 警告(系统无法启动),mkconf 的建议修复似乎与 mdadm 的问题描述不一致

摘要:update-initramfs 说系统无法启动,消息指向 mkconf,它建议重写 mdadm.conf 似乎会破坏 RAID,系统启动(目前)但下次重新启动可能会杀死它,不清楚如何继续,mdadm.conf 看起来很好,但是 update-initramfs 警告告诉我什么?为什么 mkconf 似乎暗示了一些不好的东西?

我在 1and1.com 上有一台运行 Ubuntu 12.04 的专用服务器,并且“update-initramfs -u”报告了一条 mdadm 错误消息,表明服务器将无法正确重启。我查看了相关的配置文件,一直没能找出问题所在。自从看到这条消息后,我没有尝试重新启动,因为我不想在我无法物理访问的服务器上“只是看看会发生什么”(如果我无法访问正在运行的系统,可能会使诊断更加困难)我可以探查信息。)我觉得我应该尝试了解错误消息和系统配置,直到我确信重新启动可能会成功为止。

首先是错误信息(来自 update-initramfs -u):

W: mdadm: the array /dev/md3 with UUID dffcb503:bc157198:3fb6082e:e5593158
W: mdadm: is currently active, but it is not listed in mdadm.conf. if
W: mdadm: it is needed for boot, then YOUR SYSTEM IS NOW UNBOOTABLE!
W: mdadm: please inspect the output of /usr/share/mdadm/mkconf, compare
W: mdadm: it to /etc/mdadm/mdadm.conf, and make the necessary changes.
W: mdadm: the array …
Run Code Online (Sandbox Code Playgroud)

boot raid mdadm initramfs uuid

6
推荐指数
1
解决办法
1万
查看次数

操作系统 - 不显示 100% 硬盘容量

我来自戴尔技术支持——我们的一位客户拥有戴尔系统型号 T5610,并安装了 2-256GB SSD 硬盘和 2-4TB 硬盘,并在基于英特尔的芯片组 (ROMB) 上配置了 2 个阵列的 RAID-0 --- 256GB硬盘是安装 Ubuntu 14.04 64 位操作系统的主要硬盘,但是当他使用 ROMB 在 2-4TB 硬盘上创建 RAID-0 时,他在 RAID BIOS 中看到 100% 硬盘容量,但在操作系统中他只能看到 3.2 TB 空间,

如果他在 RAID BIOS 中删除 RAID 并在 Ubuntu 中的操作系统级别配置相同的 RAID,那么他将获得 100% 容量----帮助赞赏,为什么在 RAID 中配置 RAID-0 时操作系统中未显示 100% 硬盘容量BIOS (ROM)

raid dell hard-drive

6
推荐指数
2
解决办法
350
查看次数

标签 统计

raid ×10

hard-drive ×3

mdadm ×3

boot ×2

uuid ×2

11.04 ×1

11.10 ×1

16.04 ×1

20.04 ×1

btrfs ×1

cron ×1

dell ×1

grub2 ×1

initramfs ×1

lvm ×1

partitioning ×1

server ×1

system-installation ×1

systemd ×1

uefi ×1

wubi ×1