小编all*_*tic的帖子

将 RAID 控制器升级到 4kn - 我是否必须重新初始化阵列才能使用 4kn?

我有一个企业级工作站,里面有一个Adaptec 6405E RAID 控制器。据 Adaptec 称,该 RAID 控制器不会,也永远无法原生支持 4K 磁盘扇区。如果你在里面插一个 4K 磁盘,那么如果它有 512 字节的扇区模拟模式(512e),它将使用 512e。如果它没有 512e,则磁盘根本无法工作。

连接到我的 6405E 的是四个 HGST SATA 磁盘,它们都具有 4K 本机扇区,但它们确实支持 512e。磁盘在 RAID10 中,阵列运行“相当好”(性能从好到好,但并不惊人)。

如果没有擦上的磁盘,并重新初始化数组中的数据,假设我在插上的Adaptec 71605E,这支持原生4K扇区,将控制器使用我的磁盘接口时4K扇区?或者,是否将使用 512e 或 4Kn 的决定融入到磁盘格式的结构中,以至于我必须擦除磁盘才能做到这一点?

这个问题只是关于我是否必须备份我的数据并重新初始化阵列,或者是否可以要求控制器(自动或手动干预)“切换”到高级格式 4Kn 寻址。我已经确定如果我确实擦除并重新初始化阵列,我绝对可以使用这个新的 RAID 控制器从头开始设置它以在所有驱动器上使用 4Kn。


请注意,我已经非常熟悉arcconf命令行实用程序,并且之前曾使用它将此阵列从 RAID0 升级到 RAID10(是的,我知道,我不应该一开始就使用 RAID0,但我很幸运,好吧?)。如果arcconf实用程序的某些功能可以在 Adaptec 7 系列控制器上从 512e“切换”到 4Kn,我很想知道它,这样我就可以使用它来避免重新格式化和暂时将数据卸载到一个备份位置。

在最坏的情况下,我已经对关键数据进行了异地备份,但是系统上加载了太多软件,因此我对整个数据进行块层复制会更便宜(就花费的时间而言)阵列到另一个磁盘——可能是一个通过 AHCI 连接到主板的便宜的 4TB 磁盘——然后在逻辑阵列重新初始化后将其复制回来。与重新安装所有内容(大量带有激活功能的专有 Windows 程序等)的前景相比,这实际上更便宜、更快捷。

hardware raid advanced-format

12
推荐指数
1
解决办法
1万
查看次数

ZFS 删除具有相互依赖性和克隆的快照

下面是我的 ZFS 卷和快照列表,以及每个的源和克隆。

我想删除所有快照,但保留所有文件系统。我怎样才能做到这一点?

我尝试zfs promote过尝试删除文件系统的许多不同组合的每个文件系统。这会在快照“存在”的地方发生变化;例如,zfs promote tank/containers/six将快照F从移动tank/containers/three@Ftank/containers/six@F。文件系统中的实时数据没有被修改(这是我想要的!),但我仍然无法删除快照(这不是我想要的)。

一个典型的zfs destroy尝试告诉我它有依赖的克隆,这(快照)一些我希望破坏,但别人其中(文件系统)我并不想破坏。

例如。

# zfs destroy tank/containers/six@A
cannot destroy 'tank/containers/six@A': snapshot has dependent clones
use '-R' to destroy the following datasets:
tank/containers/five
tank/containers/two@B
tank/containers/two
Run Code Online (Sandbox Code Playgroud)

在上面的例子中,我不想销毁tank/containers/fiveor tank/containers/two,但是如果我zfs promote5 和 2 ,我仍然无法销毁任何快照。有解决办法吗?

# zfs list -t all -o name,origin,clones
NAME                         ORIGIN                       CLONES
tank                         -                            -
tank/containers              -                            -
tank/containers/five         tank/containers/two@B        -
tank/containers/four …
Run Code Online (Sandbox Code Playgroud)

zfs

9
推荐指数
1
解决办法
7261
查看次数

通过 LAN 迁移原始磁盘映像

这是我的情况:

  • 同一数据中心内的两台专用服务器,它们之间有千兆以太网。
  • 两个专用服务器都启动到基于 Debian Squeeze 的救援环境,并添加了额外的工具和实用程序。还有足够的 tmp 空间(两个盒子上都有 32GB 的 RAM)用于下载软件、安装软件包和/或根据需要进行编译。
  • 两台专用服务器都有大约3TB 的可用空间。
  • “源”服务器有 4 个 1.5TB 磁盘,采用硬件 RAID-10,带有 Adaptec 4 端口控制器。
  • “目标”服务器在硬件 RAID-1 中有 2 个 3TB 磁盘,带有 Adaptec 2 端口控制器——与另一代相同,但端口数量不同。
  • 可用块的数量/dev/sda相差不到 10 MB,但目标服务器的阵列由于某种原因小了几兆。
  • 两个 RAID 阵列都配置为使用所有组成磁盘的整个磁盘表面来创建一个单一的 RAID 卷。
  • 操作系统以 MBR 模式启动;不使用 UEFI 引导。

我想做的事:

  • 在块层,将整个 OS 映像(仅包含 GPT 分区表、/boot 分区和 / 分区中的 GRUB2 引导加载程序)从“源”服务器复制到“目标”服务器。
  • 如果可能,复制应该“实时”进行:这意味着我没有足够的空间在目标端存储磁盘映像的正确文件,除非我将磁盘映像作为副本解压缩到硬盘上正在发生。服务器之间的千兆以太网连接足够可靠,我对此感到满意,我当然会fsck在两端(源和目标)上运行以验证文件系统在传输前后是否正常。
  • 如果可能,不要通过网络传输块,每个分区中的组成文件系统不使用这些块(所有分区都格式化为 ext4)。这是因为超过 50% 的“源”磁盘是/分区中的可用空间。
  • 调整/分区的大小,以便在复制它时调整大小以适应目标磁盘的稍小一些的大小。
  • 复制成功后,安装每个卷并修复对静态 IP …

linux raid local-area-network migration

8
推荐指数
2
解决办法
2054
查看次数