我的 3 磁盘 raid5 阵列中的一个驱动器开始显示读取错误和 SMART 警告。不足以将其从阵列中踢出(因为有故障),但它会影响性能并且可能会变坏(更糟)。我显然想更换这个驱动器。
现在的问题是我是否运行这个:(sdc 是损坏的驱动器,sdd 是新的):
mdadm /dev/md0 -a /dev/sdd1 -f /dev/sdc1 -r /dev/sdc1
Run Code Online (Sandbox Code Playgroud)
Linux 是否会先将 sdc1 标记为故障,然后再从它读取,然后从 sda1 和 sdb1(阵列中的另外两个磁盘)同步 sdd1?
如果是这样,那么我很容易受到 sda1 或 sdb1 上存在不可读块(甚至是一个!)的情况的影响,这将导致重建失败。
我想要做的是在将 sdc1 标记为故障之前将 sdd1 同步为 sdc1 的副本。这样我就不会遇到没有冗余的情况(尽管磁盘上的一个冗余条带很可能会导致读取错误)。
有没有办法在网上做到这一点?离线我可以:
好吧,该方法的问题在于,在最后一步中,如果存在不匹配,我希望新磁盘成为被重写的磁盘,而不是奇偶校验(无论该条带上的任何磁盘)。
因此,“将 sdd1 重建为新的 sdc1,从 sda1 和 sdb1 获取数据,但如果它们失败,则复制 sdc1 上的内容”。
个别地,这些命令不会做你想要的。
mdadm /dev/md0 -a /dev/sdd1 猫 /proc/mdstat; #(你现在应该在raid5中有一个备用驱动器) mdadm /dev/md0 -f /dev/sdc1 猫 /proc/mdstat; #(您现在应该看到 sdd1 发生了重建)
对实际命令的测试确实会导致重建发生。
唉,我不相信你现在可以做你想做的事。
顺便说一句,我经常参考linux raid wiki,并使用环回文件对我在那里看到的内容进行实验。
dd if=/dev/zero of=loopbackfile.0 bs=1024k count=100 Lostup /dev/loop0 loopbackfile.0
这为您提供了 100 兆文件,可用作 /dev/loop0。创建另外一对,您可以使用 mdadm(例如“mdadm --create /dev/md0 --level=5 --raid-devices=3 /dev/loop0 /dev/loop1 /dev/loop2)而不影响真实驱动器或数据。
注意我以前说过
mdadm /dev/md0 -a /dev/sdd1 mdadm --grow /dev/md0 --raid-disks=4
会将您的阵列扩展到raid6。这是错误的。这只会向您的阵列添加第四个磁盘,这不会使您处于比当前更好的位置。
我建议你在沙箱中玩。
因为 mdadm 可以处理图像文件,而不仅仅是像
ie/dev/sda or /dev/mapper/vg00/lv_home这样的设备文件- 为什么
不在你的机器上的第二个软件中测试你的迁移:?)
我在 debian/lenny 和 bash 下执行此操作:
# cat /etc/debian_version && uname -r && bash --version
5.0.2
2.6.26-2-amd64
GNU bash, version 3.2.39(1)-release (x86_64-pc-linux-gnu)
Copyright (C) 2007 Free Software Foundation, Inc.
Run Code Online (Sandbox Code Playgroud)
以 root 身份创建 4x128MB 的磁盘映像(您需要 512 MB 的可用磁盘空间 /)
sudo su
mkdir -p ~/raidtest/{root,home} && cd ~/raidtest
for i in sd{a,b,c,d} ; do
dd if=/dev/zero bs=128 count=1M of=$i
done
Run Code Online (Sandbox Code Playgroud)
让我们看看发生了什么:
# ls -hon --time-style=+
total 512M
drwxr-xr-x 2 0 4,0K home
drwxr-xr-x 2 0 4,0K root
-rw-r--r-- 1 0 128M sda
-rw-r--r-- 1 0 128M sdb
-rw-r--r-- 1 0 128M sdc
-rw-r--r-- 1 0 128M sdd
Run Code Online (Sandbox Code Playgroud)
对文件进行分区
我通过循环设备在 sda 上创建了 3 个分区(20MB、40MB 和 56MB)用于交换和 /home:
# losetup /dev/loop0 sda
# ! echo "n
p
1
+20M
t
fd
n
p
2
+40M
t
2
fd
n
p
3
t
3
fd
w" | fdisk /dev/loop0
Run Code Online (Sandbox Code Playgroud)
好的,看看发生了什么:
# fdisk -l /dev/loop0
Disk /dev/loop0: 134 MB, 134217728 bytes
255 heads, 63 sectors/track, 16 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk identifier: 0xe90aaf21
Device Boot Start End Blocks Id System
/dev/loop0p1 1 3 24066 fd Linux raid autodetect
/dev/loop0p2 4 9 48195 fd Linux raid autodetect
/dev/loop0p3 10 16 56227+ fd Linux raid autodetect
Run Code Online (Sandbox Code Playgroud)
将此分区方案复制到循环{1,2,3} ^= sd{b,c,d}
# losetup /dev/loop1 sdb
# sfdisk -d /dev/loop0 | sfdisk /dev/loop1
# losetup /dev/loop2 sdc
# sfdisk -d /dev/loop0 | sfdisk /dev/loop2
# losetup /dev/loop3 sda
# sfdisk -d /dev/loop0 | sfdisk /dev/loop3
Run Code Online (Sandbox Code Playgroud)
可选:如果您已安装 parted,请在设备上运行 partprobe 以更新内核表
# partprobe /dev/loop0
# partprobe /dev/loop1
# partprobe /dev/loop2
# partprobe /dev/loop3
Run Code Online (Sandbox Code Playgroud)
使用kpartx创建每个分区下的设备/dev/mapper/
aptitude install kpartx dmsetup
# kpartx -av /dev/loop0
add map loop0p1 (254:3): 0 48132 linear /dev/loop0 63
add map loop0p2 (254:4): 0 96390 linear /dev/loop0 48195
add map loop0p3 (254:5): 0 112455 linear /dev/loop0 144585
# kpartx -av /dev/loop1
add map loop1p1 (254:6): 0 48132 linear /dev/loop1 63
add map loop1p2 (254:7): 0 96390 linear /dev/loop1 48195
add map loop1p3 (254:8): 0 112455 linear /dev/loop1 144585
# kpartx -av /dev/loop2
add map loop2p1 (254:9): 0 48132 linear /dev/loop2 63
add map loop2p2 (254:10): 0 96390 linear /dev/loop2 48195
add map loop2p3 (254:11): 0 112455 linear /dev/loop2 144585
# kpartx -av /dev/loop3
add map loop3p1 (254:12): 0 48132 linear /dev/loop3 63
add map loop3p2 (254:13): 0 96390 linear /dev/loop3 48195
add map loop3p3 (254:14): 0 112455 linear /dev/loop3 144585
Run Code Online (Sandbox Code Playgroud)
创建您的 raid5 并查看状态
我们仍然是 root!在我的工作站上,我不使用 raid,只使用 LVM,所以我必须加载内核模块并安装包
mdadm。
# modprobe raid5
# aptitude install mdadm
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
unused devices: <none>
Run Code Online (Sandbox Code Playgroud)
我使用 md{10,11,12} 进行此测试。请注意,它们未在您的系统上使用(这将是不正常的)!
--force 和 -x 0 被使用,因为否则 mdadm 会放置一个分区也是空闲的:
## the 20MB Partition
# mdadm --create --force -l 5 -n3 -x 0 /dev/md10 /dev/mapper/loop0p1 /dev/mapper/loop1p1 /dev/mapper/loop2p1
mdadm: array /dev/md10 started.
## the 40MB Partition
# mdadm --create --force -l 5 -n3 /dev/md11-x 0 /dev/mapper/loop0p2 /dev/mapper/loop1p2 /dev/mapper/loop2p2
mdadm: array /dev/md11 started.
## the 56MB Partition
# mdadm --create --force -l 5 -n3 /dev/md12-x 0 /dev/mapper/loop0p3 /dev/mapper/loop1p3 /dev/mapper/loop2p3
mdadm: array /dev/md12 started.
Run Code Online (Sandbox Code Playgroud)
现在的样子:
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md12 : active raid5 dm-11[2] dm-8[1] dm-5[0]
112256 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]
md11 : active raid5 dm-10[2] dm-7[1] dm-4[0]
96256 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]
md10 : active raid5 dm-9[2] dm-6[1] dm-3[0]
48000 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]
unused devices: <none>
Run Code Online (Sandbox Code Playgroud)
信息
输出不好。mdstat 只显示dm-3 .. dm-11, meaing/dev/mapper/loop*
但ls -lsa /dev/disk/by-id显示当前映射。
我在 md10 上的输出以 dm-9 开头(意思是 /dev/mapper/loop0p1),因为我在写这篇文章时做了测试,我的 LVM 使用 dm-{0,1,2}。
您还可以通过以下方式使用mdadm --examine --scan或更详细的信息mdadm -Q --detail /dev/md10 /dev/md11 /dev/md12
以 root 身份静默创建文件系统并交换
# mkswap /dev/md10 > /dev/null 2>&1
# mke2fs -m0 -Lroot /dev/md11 -F > /dev/null 2>&1
# mke2fs -m0 -Lhome /dev/md12 -F > /dev/null 2>&1
Run Code Online (Sandbox Code Playgroud)
挂载你的新raiddevice:
# swapon /dev/md10
# mount /dev/md11 root/
# mount /dev/md12 home/
Run Code Online (Sandbox Code Playgroud)
查看结构,如果 /dev/md10 是有效的交换分区:(
我的工作站也使用 /dev/mapper/vg00-swap,因此优先级更高)
# \tree
.
|-- home
| `-- lost+found
|-- root
| `-- lost+found
|-- sda
|-- sdb
|-- sdc
`-- sdd
# cat /proc/swaps
Filename Type Size Used Priority
/dev/mapper/vg00-swap partition 9764856 53688 -1
/dev/md10 partition 47992 0 -2
Run Code Online (Sandbox Code Playgroud)
现在你有一个正在运行的 raid5 并且可以测试迁移
我认为这里有一些很好的答案 - 在你的系统上仔细测试它们!
完成测试后,关闭您的 mds 并删除您的 /dev/loop*
# mdadm --stop /dev/md10
# mdadm --stop /dev/md11
# mdadm --stop /dev/md12
# kpartx -dv /dev/loop0
# kpartx -dv /dev/loop1
# kpartx -dv /dev/loop2
# kpartx -dv /dev/loop3
Run Code Online (Sandbox Code Playgroud)
sudo su
cd ~/raidtest
# connecting the files to /dev/loop*
losetup /dev/loop0 sda
losetup /dev/loop1 sdb
losetup /dev/loop2 sdc
losetup /dev/loop3 sdd
# access to the partions in /dev/loop*
kpartx -av /dev/loop0
kpartx -av /dev/loop1
kpartx -av /dev/loop2
kpartx -av /dev/loop3
# start the raid again
mdadm --assemble /dev/md10 /dev/mapper/loop0p1 /dev/mapper/loop1p1 /dev/mapper/loop2p1
mdadm --assemble /dev/md11 /dev/mapper/loop0p2 /dev/mapper/loop1p2 /dev/mapper/loop2p2
mdadm --assemble /dev/md12 /dev/mapper/loop0p3 /dev/mapper/loop1p3 /dev/mapper/loop2p3
# show active raids
cat /proc/mdstat
Run Code Online (Sandbox Code Playgroud)
你的测试顺利吗?
好的,那么您必须像我们在沙箱中使用我们的文件一样将分区从 复制/dev/sda到/dev/sdd:
sfdisk -d /dev/sda | sfdisk /dev/sdd
Run Code Online (Sandbox Code Playgroud)
现在你可以添加/dev/sdd到你的raid
信息
如果这失败,因为不同的硬盘供应商/型号,你必须玩
-uS (sectors), -uB (blocks), -uC (cylinders) or -uM (megabytes)- 咨询man sfdisk!
我在现实生活中的一些 raidcombos 中 P-ATA <-> P-ATA 但即使是 SCSCI <-> P-ATA 也能正常工作,除非新设备的大小等于或大于其他硬盘。
Softwareraid 非常灵活!
如果您有,/etc/mdadm/mdadm.conf请查看并更新它!
mdadm 可以帮助您显示正确的语法:
mdadm --detail --scan
Run Code Online (Sandbox Code Playgroud)
祝你好运!
| 归档时间: |
|
| 查看次数: |
1404 次 |
| 最近记录: |