标签: raid

块设备的可用性超时

在新安装的Ubuntu 18.04(64 位)服务器上,blk-availability.service总是因关闭时超时而终止。

我认为该服务的依赖性很差,但我不知道对此的良好关闭顺序是什么。

Xenial上也有几乎相同的配置......

磁盘子系统是

  • NVMe 固态硬盘(三星 970 EVO MZ-V7E250BW)
    • EFI分区
    • 启动分区
    • LVM物理卷
      • 逻辑卷
      • 交换逻辑卷
      • 数据逻辑卷
  • 2个。RAID1 中的硬盘(md0尚未使用

杂志

systemd[1]: Stopped Load/Save Random Seed.
systemd[1]: Stopped Update UTMP about System Boot/Shutdown.
systemd[1]: Stopped Network Time Synchronization.
kernel: usb 1-13: USB disconnect, device number 2
systemd[1]: blk-availability.service: Stopping timed out. Terminating.
systemd[1]: blk-availability.service: Control process exited, code=killed status=15
blkdeactivate[2447]:   [MD]: deactivating raid1 device md0... resync …
Run Code Online (Sandbox Code Playgroud)

shutdown lvm raid systemd 18.04

5
推荐指数
0
解决办法
6290
查看次数

如何从 Windows 访问 Ubuntu RAID 设备?

我在 Ext4 RAID1 上安装了 Ubuntu,在另一个磁盘上安装了 Windows 7。RAID 是 Ubuntu 中的软件 RIAD 设置。

我已经使用Ext2Fsd 项目来挂载普通的 Ext4 系统,它运行良好。当我尝试安装其中一个 RAID 磁盘时,出现“UUID 为 0”错误。

我想知道是否有人知道在 Windows 中访问我的 RAID 的方法。我见过这个问题,但提到软件 RAID 的唯一答案并没有真正提供任何证据。

windows ext4 raid

4
推荐指数
1
解决办法
2万
查看次数

Ubuntu Server 12.04,MDADM 设备号突然变了?

我遇到了一个非常烦人的错误,我已经用 mdadm 设置了一个软件 RAID1,并且设置结果很好

/dev/md/lucas.mgscreativa.com.ar:0

我也像这样配置了 mdadm.conf

DEVICE /dev/sda /dev/sdb

# auto-create devices with Debian standard permissions CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts MAILADDR root

# definitions of existing MD arrays ARRAY /dev/md/lucas.mgscreativa.com.ar:0 metadata=1.2
name=lucas.mgscreativa.com.ar:0
UUID=c913486a:e62c7ea1:cfb98b6b:253d1f62
Run Code Online (Sandbox Code Playgroud)

和 fstab 这样配置

/dev/md/lucas.mgscreativa.com.ar:0 /media/data     ext4
defaults,noatime      0       0
Run Code Online (Sandbox Code Playgroud)

但是,有一天,我的数组名称突然从 /dev/md/lucas.mgscreativa.com.ar:0 更改为 /dev/md0,因此我对 fstab 和 mdadm.conf 进行了一些更改(当然,在几小时后和数小时的尝试和错误),一切顺利,但今天,再次,MD 编号从 /dev/md0 更改为 /dev/md127 !!! …

server raid mdadm

4
推荐指数
1
解决办法
9571
查看次数

将lvm2 root转换为lvm2 raid1后无法启动

我在第一个 HDD (sda) 上安装了 Ubuntu 12.10(无更新,内核 3.5.0-17-generic),它使用 MBR 并在启用 LVM2 的情况下分区为“为 ubuntu 使用整个磁盘”。根文件系统在 LVM2 (VG:ubuntu) 上。今天我添加了相同大小的第二个硬盘(sdb),像第一个硬盘一样对其进行分区,创建 lvm2 PV 并将根 LV 转换为 raid1:

pvcreate /dev/sdb5
vgextend ubuntu /dev/sdb5
lvconvert --type raid1 -m1 /dev/ubuntu/root /dev/sdb5
Run Code Online (Sandbox Code Playgroud)

100% 重新同步后,我重新启动,initramfs 无法找到 root fs:

Begin: Running /scripts/init-premount ... done.
Begin: Mounting root file system ... Begin: Running /scripts/local-top ... done.
... (kernel messages)
Gave up waiting for root device. Common problems:
 - Boot args (cat /proc/cmdline)
   - Check rootdelay= (did the system wait long enough?)
   - …
Run Code Online (Sandbox Code Playgroud)

boot lvm raid

4
推荐指数
1
解决办法
2843
查看次数

在 Ubuntu 18.04 中设置 RAID

我正在尝试使用 Ubuntu 18.04 服务器版本设置我的一台服务器。尝试进行磁盘分区时,它不允许我选择软件 RAID 配置(根本不存在打开的)。我该如何解决这个问题。

注意:我尝试使用 Ubuntu 16.04,它运行良好

server raid 18.04

4
推荐指数
1
解决办法
2万
查看次数

在另一块主板上重新组装 Intel RST RAID

我解决了

解决方案在我自己的答案中(参见我的下一篇文章)。这篇文章仅描述了我最初的问题和我尝试过的方法。

不过,这可能会给你一些提示……也可能不是。

我解决了它结束

首先我对Linux还很陌生。事情是这样的。我的旧电脑主板已经让我失望了。没问题,我只是再见一个新的。然而,我愚蠢地使用了英特尔的 RST,它安装在旧主板上,但没有安装在新主板上。现在的问题是,是否可以在没有英特尔 RST 引导扩展的情况下恢复 RST raid?看起来这些磁盘并没有自动组装成一卷。在我看来这是可能的,但是当涉及到 raid 和磁盘/分区管理时,我的知识几乎仅限于 gparted。

到目前为止,我发现两个磁盘的 blkid 给出(并且仅给出):

/dev/sdb: TYPE="isw_raid_member"
/dev/sda: TYPE="isw_raid_member"
Run Code Online (Sandbox Code Playgroud)

看起来还不错。

mdadm -E 给我:

mdadm -E /dev/sdb /dev/sda
mdadm: /dev/sdb is not attached to Intel(R) RAID controller.
mdadm: /dev/sdb is not attached to Intel(R) RAID controller.
/dev/sdb:
          Magic : Intel Raid ISM Cfg Sig.
        Version : 1.0.00
    Orig Family : 3ad31c33
         Family : 3ad31c33
     Generation : 000006b7
     Attributes : All supported
           UUID : f508b5ef:ce7013f7:fcfe0803:ba06d053
       Checksum : 0798e757 correct
    MPB Sectors …
Run Code Online (Sandbox Code Playgroud)

raid mdadm intel rst

4
推荐指数
1
解决办法
4581
查看次数

当我在重建第三个磁盘时重新启动计算机时,mdadm 必须从头开始是否正常?

我昨天使用 mdadm 安装了 RAID5。从那时起,它一直在重建。

我刚刚重新启动了我的计算机,它开始从头开始重建 RAID。(之前有 60%。)这是正常的还是缺少任何设置?

除了创建 RAID 之外,我所做的唯一一件事就是将这一行添加到 /etc/mdadm/mdadm.conf:

ARRAY /dev/md0 level=raid5 num-devices=3 UUID=bce3de1f:...:466da02f
Run Code Online (Sandbox Code Playgroud)

raid mdadm

3
推荐指数
1
解决办法
1394
查看次数

删除 mdadm 数组但保留数据

我有一个两盘的 mdadm RAID1 阵列。其中一个磁盘已损坏,因此阵列处于降级状态。这种情况已经有一段时间了,虽然我不介意偶尔收到电子邮件,但最近mdadm有一个更新,现在强制启动过程在交互模式下停止,我必须按 y 才能继续,否则它会进入busybox。很沉闷。

我想保留剩余的数据,但我希望驱动器不再mdadm依赖。有没有快速删除toe MD超级块并直接挂载而不丢失数据的方法?

raid mdadm

3
推荐指数
2
解决办法
9440
查看次数

btrfs 同时进行重复数据删除和压缩?

我正在考虑使用 btrfs 函数进行重复数据删除和压缩我的存储...

我的问题是:它有效率吗?

我的意思是,它是否有效地同时进行重复数据删除和压缩?!

我正在使用 Ubuntu 14.04 64 位。此外,我计划在云计算环境中的 EBS 优化卷之上将它与 raid0 一起使用......

太棒了!蒂亚戈

storage btrfs raid compression

3
推荐指数
1
解决办法
5510
查看次数

在启动时挂载 mdadm raid 1 驱动器

我想知道你们是否可以帮忙。我希望在启动时安装我的 mdadm RAID 1。

驱动器位置是/dev/md127,我希望它/media/server在启动时安装到。它被格式化为ext4. 您的帮助将不胜感激。

server fstab raid automount 14.04

3
推荐指数
1
解决办法
3万
查看次数

标签 统计

raid ×10

mdadm ×4

server ×3

18.04 ×2

lvm ×2

14.04 ×1

automount ×1

boot ×1

btrfs ×1

compression ×1

ext4 ×1

fstab ×1

intel ×1

rst ×1

shutdown ×1

storage ×1

systemd ×1

windows ×1