如果您犯了错误,您可能会丢失所有数据。先备份。然后继续。
用storcli /c0 show看什么驱动器和卷你。该TOPOLOGY表是一个好的开始:
TOPOLOGY :
========
----------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type State BT Size PDC PI SED DS3 FSpace TR
----------------------------------------------------------------------------
0 - - - - RAID5 Optl N 10.914 TB dflt N N none N N
0 0 - - - RAID5 Optl N 10.914 TB dflt N N none N N
0 0 0 252:0 10 DRIVE Onln N 2.728 TB dflt N N none - N
0 0 1 252:1 9 DRIVE Onln N 2.728 TB dflt N N none - N
0 0 2 252:2 11 DRIVE Onln N 2.728 TB dflt N N none - N
0 0 3 252:3 8 DRIVE Onln N 2.728 TB dflt N N none - N
0 0 4 252:4 12 DRIVE Onln N 2.728 TB dflt N N none - N
----------------------------------------------------------------------------
Run Code Online (Sandbox Code Playgroud)
这会显示哪些磁盘已经在 RAID 阵列中。我只有一个Arr带有 ID 的RAID 阵列 ( ) 0。
PD LIST 向您显示磁盘:
PD LIST :
=======
--------------------------------------------------------------------------------
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp Type
--------------------------------------------------------------------------------
252:0 10 Onln 0 2.728 TB SATA HDD N N 512B WDC WD30EFRX-68AX9N0 U -
252:1 9 Onln 0 2.728 TB SATA HDD N N 512B WDC WD30EFRX-68AX9N0 U -
252:2 11 Onln 0 2.728 TB SATA HDD N N 512B WDC WD30EFRX-68EUZN0 U -
252:3 8 Onln 0 2.728 TB SATA HDD N N 512B WDC WD30EFRX-68EUZN0 U -
252:4 12 Onln 0 2.728 TB SATA HDD N N 512B WDC WD30EFRX-68EUZN0 U -
252:6 14 GHS - 2.728 TB SATA HDD N N 512B WDC WD30EFRX-68EUZN0 D -
252:7 13 UGood - 2.728 TB SATA HDD N N 512B WDC WD30EFRX-68EUZN0 D -
--------------------------------------------------------------------------------
Run Code Online (Sandbox Code Playgroud)
新添加的磁盘应显示为UGood(未配置良好)。在该示例中,这是机箱13插槽中7的磁盘252。
要将磁盘添加到 RAID 阵列:
storcli /c0/v0 start migrate type=raid5 option=add drives=252:13
Run Code Online (Sandbox Code Playgroud)
/c0是控制器,/v0是RAID卷(见TOPOLOGY上文或VD LIST)更改,start migrate被命令的问题,type=raid5意思是“保持它RAID5”,我们要添加磁盘(option=add),并drives为磁盘的形式添加的列表EID:Slt(见PD LIST)。
该过程可能需要几天时间。当控制器在后台工作时,您可以继续使用 RAID 卷上的文件系统。您甚至可以重新启动服务器,控制器将从原来的位置继续运行。
要检查进度,请使用storcli /c0/v0 show migratewhich 将打印如下内容:
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-----------------------------------------------------------
0 Migrate 38 In Progress 49 Minutes
-----------------------------------------------------------
Run Code Online (Sandbox Code Playgroud)
注:估计有偏差;就我而言,那 49 分钟是 3 小时。我的感觉是,最初估计 2 天 8 小时要准确得多。
迁移完成后,控制器将执行另一项后台作业(“后台初始化”)。不知道那是什么。
完成后,它会打印:
VD Operation Status :
===================
-----------------------------------------------------------
VD Operation Progress% Status Estimated Time Left
-----------------------------------------------------------
0 Migrate - Not in progress -
-----------------------------------------------------------
Run Code Online (Sandbox Code Playgroud)
用storcli /c0 show看你的RAID卷的新大小:
VD LIST :
=======
--------------------------------------------------------------
DG/VD TYPE State Access Consist Cache Cac sCC Size Name
--------------------------------------------------------------
0/0 RAID5 Optl RW Yes RWBD - OFF 10.914 TB data
--------------------------------------------------------------
^^^^^^
Run Code Online (Sandbox Code Playgroud)
我正在使用 LVM 来管理磁盘。pvscan显示磁盘大小没有改变:
PV /dev/sdb VG data lvm2 [8,19 TiB / 526,00 GiB free]
^^^^^^^^
Run Code Online (Sandbox Code Playgroud)
是时候重新启动了(至少我找不到让 Linux 重新扫描磁盘的方法)。
至少,lsblk现在显示正确的磁盘大小:
sdb 8:16 0 10,9T 0 disk
^^^^^
Run Code Online (Sandbox Code Playgroud)
LVM 还是看不到(pvscan):
PV /dev/sdb VG data lvm2 [8,19 TiB / 526,00 GiB free]
Run Code Online (Sandbox Code Playgroud)
pvdisplay 提供更多细节:
--- Physical volume ---
PV Name /dev/sdb
VG Name data
PV Size 8,19 TiB / not usable 3,00 MiB
Allocatable yes
PE Size 4,00 MiB
Total PE 2145791
Free PE 134655
Allocated PE 2011136
PV UUID vM1WQP-CZXu-FrWJ-kRti-hMa2-I1rh-Mga6Xg
Run Code Online (Sandbox Code Playgroud)
我们可以在执行之前测试下一个操作: pvresize --test -v /dev/sdb
TEST MODE: Metadata will NOT be updated and volumes will not be (de)activated.
Using physical volume(s) on command line.
Test mode: Skipping archiving of volume group.
Resizing volume "/dev/sdb" to 23437770752 sectors.
Resizing physical volume /dev/sdb from 0 to 2861055 extents.
Updating physical volume "/dev/sdb"
Test mode: Skipping backup of volume group.
Physical volume "/dev/sdb" changed
1 physical volume(s) resized / 0 physical volume(s) not resized
Test mode: Wiping internal cache
Wiping internal VG cache
Run Code Online (Sandbox Code Playgroud)
2861055范围 a4 MiB转换为10.91 TiB(2861055*4096/1024/1024/1024)。
调整逻辑卷的大小: pvresize -v /dev/sdb
最后,LVM 看到了新容量:
# pvdisplay
--- Physical volume ---
PV Name /dev/sdb
VG Name data
PV Size 10,91 TiB / not usable 3,00 MiB
Allocatable yes
PE Size 4,00 MiB
Total PE 2861055
Free PE 849919
Allocated PE 2011136
PV UUID vM1WQP-CZXu-FrWJ-kRti-hMa2-I1rh-Mga6Xg
Run Code Online (Sandbox Code Playgroud)
您现在可以继续增加卷组上的文件系统。
| 归档时间: |
|
| 查看次数: |
8009 次 |
| 最近记录: |