相关疑难解决方法(0)

RAID 1 中的第二个驱动器不断出现故障

我这里有点问题。我有一个 Ubuntu Linux 服务器,在软件 RAID 1(使用 mdadm 创建)中设置了 2 个 SAS 驱动器。RAID 可以正常运行一天,我可以执行 cat /proc/mdstat 并且它显示两个磁盘都处于活动状态并且一切正常。然后出乎意料的是,第二个磁盘将出现故障,并进入降级模式。

然后我将从 RAID 组中移除磁盘,重新启动服务器,然后将磁盘重新添加到组中。RAID 将自行重建而不会出现任何问题,我将拥有一个健康的 RAID 1,可以使用相同的磁盘再次运行。然后,在 12-24 小时左右的时间内,第二个驱动器将出现故障。

硬盘是全新的,所以我认为硬件没问题。这是我在磁盘出现故障时能够从 kern.log 和 syslog 中捕获的输出。

任何人都可以翻译这个或知道可能会发生什么吗?

谢谢!

内核日志

 Feb 28 20:34:55 CSTEP-APPS20 kernel: [    9.180815] sd 2:0:0:0: Attached scsi generic sg1 type 0
Feb 28 20:34:55 CSTEP-APPS20 kernel: [    9.181086] sd 2:0:1:0: Attached scsi generic sg2 type 0
Feb 28 20:34:55 CSTEP-APPS20 kernel: [    9.181376] sd 2:0:1:0: [sdb] 71096640 512-byte logical blocks: (36.4 GB/33.9 GiB)
Feb …
Run Code Online (Sandbox Code Playgroud)

linux raid hard-drive mdadm software-raid

0
推荐指数
1
解决办法
2181
查看次数

标签 统计

hard-drive ×1

linux ×1

mdadm ×1

raid ×1

software-raid ×1