所以 grub 需要元数据版本 0.90 我想知道我是否可以更改我现有的数组来使用它而不是默认值 1.2。这样我就不用重新安装了。如果是,我该怎么做?
我有 40 年的计算经验,但我从来没有构建过像这样的服务器,所以这可能是一个 n00b 问题。
我有一个客户将提供超高清音乐文件供下载。在这种情况下,这意味着 FLAC 压缩的 24/192Khz =~ 10GB/专辑。(不,我不想讨论产品的可取性,只是服务器配置。)目录将是大约 3,000 张专辑,包括超高和低清晰度版本(我猜是他们的 iPod),大约35-40TB 左右的原始数据。
由于这是一个非常专业的产品,市场规模相对较小(想想:在音频系统上花费超过 20,000 美元的人),这意味着服务器在大部分时间将 100% 闲置(或接近闲置)。我从 ColocationAmerica 获得了一个很好的主机托管服务,连接速度为 1Gbps,带宽约为 20 美元/TB,所以现在我只需要构建一个盒子来运送货物。
数据访问用例是一次写入/多次读取,所以我只想将软件 RAID 1 用于驱动器对。这将允许我(我认为)即时为发生故障的驱动器重新配置备用驱动器,从而能够在某些系统管理员注意到系统上的红灯之前开始重建第二个驱动器(他们可以免费换出)。如果不需要大多数驱动器,我可以让大多数驱动器进入睡眠/降速状态,那就太好了,这将是大多数驱动器的大部分时间。
我不需要太多的计算能力——这个东西只是把胖对象推到管道里——所以 CPU/主板可以非常适中,只要它可以支持这个数量的驱动器。
我目前正在考虑以下配置:
Chasis: Supermicro CSE-847E26-RJBOD1
Drives: 30 4TB SAS drives (Seagate ST4000NM0023 ?)
MB: SUPERMICRO MBD-X10SAE-O w/ 8GB
CPU: Xeon E3-1220V3 3.1GHz LGA 1150 80W Quad-Core Server
Run Code Online (Sandbox Code Playgroud)
那么,我是在朝着正确的方向前进,还是这是一种完全解决问题的 n00b / 恐龙方式?
更新以澄清几点:
维基百科说“RAID 2 是唯一的标准 RAID 级别,除了 RAID 6 的一些实现,它可以从数据的单个位损坏中自动恢复准确的数据。”
有谁知道 Linux 中的 RAID 6 mdadm 实现是否是这样一种实现,它可以自动检测单比特数据损坏并从中恢复。如果 CentOS / Red Hat 6 与其他版本不同,则这适用于 CentOS / Red Hat 6。我尝试在网上搜索,但运气不佳。
由于 SATA 错误率为 1/1E14 位,以及包含 1.6E13 位的 2TB SATA 磁盘,这对于防止数据损坏尤其重要。
编辑 2015 年 6 月 17 日
我相信这不是我最初认为的问题 - 请参阅硬盘 / SSD - 错误的检测和处理 - 是否可靠地防止了静默数据损坏?更多细节
在过去的一周里,我的负载激增。这通常每天发生一次或两次。我已经设法从 iotop 确定 [jbd2/md1-8] 正在使用 99.99% IO。在高负载期间,服务器没有高流量。
服务器规格为:
除了尖峰,负载通常最多在 0.80 左右。
我四处搜索,但找不到 [jbd2/md1-8] 究竟做了什么。有没有人遇到过这个问题或者有没有人知道可能的解决方案?
谢谢你。
更新:
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
16:05:36 399 be/3 root 0.00 B/s 38.76 K/s 0.00 % 99.99 % [jbd2/md1-8]
Run Code Online (Sandbox Code Playgroud) 我想在旧电脑上构建一个低端 6TB RAID 1 存档。
MB: Intel d2500hn 64bit
CPU: Intel Atom D2500
RAM: 4GB DDR3 533 MHz
PSU: Chinese 500W
NO GPU
1x Ethernet 1Gbps
2x SATA2 ports
1x PCI port
4x USB 2.0
Run Code Online (Sandbox Code Playgroud)
我想在 Linux 上构建一个 RAID1 存档(我认为是 CentOS 7,然后我会安装我需要的所有东西,我认为ownCloud或类似的东西),我将在我的家庭本地网络中使用它。
10-20 美元的RAID PCI 控制器还是软件RAID 更好?
如果软件raid比较好,我在CentOS上应该选择哪个?是将系统放在外部 USB 上并在连接器上使用 2 个磁盘,还是应该将系统放在一个磁盘中然后创建 RAID?
如果我要做 3 个磁盘的 RAID 5,我应该选择硬件 raid PCI 还是简单的 PCI SATA 连接器?
我知道大多数不同的 RAID 是如何工作的。但是我 在研究linux软件raid时偶然发现了推荐的raid10,f2模式。我真的不明白它是如何在 2 或 3 个磁盘上工作的。有人可以向我解释一下吗?或者给我指出一篇解释它的非常好的文章?
我的 Windows 2003 Server 上有一个镜像动态磁盘。您如何监控卷的健康状况?
当音量出现问题时,有没有办法让服务器发送电子邮件?有没有办法让服务器运行 SMART 测试?
编辑: 没有什么比登录客户端服务器、运行 DISKPART LIST VOLUME 并看到这个更能说明 WTF 了。
Volume ### Ltr Label Fs Type Size Status Info
---------- --- ----------- ----- ---------- ------- --------- --------
Volume 0 X xDrive NTFS Mirror 233 GB Failed Rd
Volume 1 C NTFS Simple 57 GB Healthy System
Volume 2 D DVD-ROM 0 B Healthy
Volume 3 F RAW Partition 466 GB Healthy
Volume 4 E New Volume NTFS Partition 932 GB Healthy
Run Code Online (Sandbox Code Playgroud) raid windows-server-2003 monitoring software-raid dynamic-disk
自从我安装了一些新硬件后,我一直在 syslog 中收到这些神秘消息,但我无法弄清楚问题是什么,是否严重,或者如何处理。
它们来自新的 SATA HBA,并且遵循一种模式。5-30 秒后,我将收到几条第一条消息,然后是几条第二条消息。它们出现在同一秒内全部记录的 blob 中,每个 blob 的确切数量在大约 2 到 35 之间变化。条目出现之间可能是几分钟或几小时。
两条消息的示例:
Jul 13 06:06:23 durandal kernel: [366918.435596] mpt2sas0: log_info(0x31120303): originator(PL), code(0x12), sub_code(0x0303)
Jul 13 06:06:28 durandal kernel: [366923.145524] mpt2sas0: log_info(0x31110d01): originator(PL), code(0x11), sub_code(0x0d01)
Run Code Online (Sandbox Code Playgroud)
它始终是 0x31120303 后跟 0x31110d01。
mpt2sas 是我正在使用的 SATA 主机总线适配器的驱动程序,但错误内容过于神秘。它没有告诉我问题是什么,它是什么磁盘或端口,或者它有多严重。
Supermicro X9SCL配备至强 E3-1220和 8GB 内存。
基于 LSI SAS2008 的 Supermicro AOC-USAS2-L8I SAS/SATA HBA 连接到 Supermicro CSE-M35T-1B磁盘托盘组。它插入了三个 Western Digital WD30EZRX和两个Segate ST3000DM001。所有 3TB 驱动器(实际上完全相同的扇区数)。没有使用端口扩展器。
HBA、磁盘托盘和 4 个驱动器是新的。其中一台 …
我目前正在构建一个新的 Ubuntu 13.04 服务器,在一个 RAID 镜像中有 2 个 256GB SSD 来运行 MariaDB 实例。我们通常将LVM 置于 md raid 1 阵列之上的 dm-crypt 加密之上,但之前未在此设置中使用 SSD。
我的问题是,由于我们将使用较新的 (3.8) 内核,因此按照我的理解,它应该允许将 fstrim 直接应用于 raid 卷。我现在可以简单地依靠它fstrim -v /通过 cron 作业正常工作,就像没有进行突袭一样吗?即使 LVM 位于raid 卷之上也是如此吗?我们计划使用驱动器上的硬件加密,因此我们不需要 dm-crypt。
注意:我知道有几个类似的问题涉及向后移植更新的内核版本和使用 md 卷实现丢弃 - 我特别询问是否fstrim适用于 md-raid 而无需在较新的内核中进一步修改。
更新:只是想跟进并发布这工作正常。现在有一份工作在cron.daily是运行fstrim上/和/boot它的工作完美。此外,事实证明 SSD (Samsung 840 Pros) 上的硬件加密似乎需要 TPM 支持,而我们没有,因此我们确实配置了软件加密,如链接所示。通过添加( not to ) 中discard的选项和的 devices 部分,即使通过 LVM、加密和 RAID 层,fstrim 也能正常工作。 有关在具有 LVM 和加密的 …
我在 CentOS 6.3 上设置了 Qemu-KVM 主机系统。四个 1TB SATA 硬盘在软件 RAID10 中工作。来宾 CentOS 6.3 安装在单独的 LVM 上。人们说他们认为客人的表现几乎等同于主持人的表现,但我不这么认为。我的 i/o 测试显示来宾系统的性能比主机系统慢 30-70%。我尝试更改调度程序(设置elevator=deadline在主机和elevator=noop来宾上),blkio.weight在 cgroup 中设置为 1000,将 io 更改为 virtio ......但这些更改都没有给我任何显着的结果。这是访客 .xml 配置部分:
<disk type='file' device='disk'>
<driver name='qemu' type='raw'/>
<source file='/dev/vgkvmnode/lv2'/>
<target dev='vda' bus='virtio'/>
<address type='pci' domain='0x0000' bus='0x00' slot='0x05' function='0x0'/>
</disk>
Run Code Online (Sandbox Code Playgroud)
有我的测试:
主机系统:
臭氧测试
# iozone -a -i0 -i1 -i2 -s8G -r64k
random random
KB reclen write rewrite read reread read write
8388608 64 189930 197436 266786 267254 28644 …Run Code Online (Sandbox Code Playgroud)