我已经使用 OpenSolaris 和 ZFS 工作了 6 个月,主要是在 Sun Fire x4540 以及标准的戴尔和惠普硬件上。标准 Perc 和 HP Smart Array 控制器的一个缺点是它们没有真正的“直通”JBOD 模式来将单个磁盘呈现给 ZFS。
可以配置多个 RAID 0 阵列并使它们在 ZFS 中工作,但这会影响热插拔功能(因此需要在磁盘故障/更换时重新启动)。我很好奇什么 SAS/SATA 控制器被推荐用于自制的 ZFS 存储解决方案。此外,电池供电的写缓存 (BBWC) 对 ZFS 存储有什么影响?
是否可以在 BIOS 中禁用 CPU(英特尔)内核,如果是,HP/DELL(其他?)1U/2U 服务器会允许这样做吗?
找到新的双核服务器硬件变得越来越困难,大多数新服务器都是四核服务器,因此 Oracle 许可的成本使服务器升级变得异常复杂。这让我想到了上面的问题。
我怎样才能找出主板支持哪个 PCI 版本(2.0、2.3) - 即使对于没有连接任何卡的插槽也是如此。
lspci -vvv 似乎不显示没有卡的 PCI 插槽的信息。
我正在一个新环境中工作,该环境大量使用串行控制台服务器进行服务器管理。它们增加了用于电源管理的开关 PDU。他们没有使用现有服务器的 DRAC 功能。
我正在向该站点添加新的 HP ProLiant 设备,并且很好奇串行控制台与现代服务器上可用的 ILO/ILOM/DRAC 技术相比的优势。这是一个 Linux 环境,将增长以包含更多的 Windows 系统。我将混合使用刀片和 DL380。假设将来的任何设备上都有 ILO/DRAC 的完全许可/启用版本。
我过去配置过串行控制台,发现它们对网络设备特别有用。我对它们在服务器具有板载熄灯管理的环境中的优势或有用性感到困惑。
我的公司制造了一个嵌入式 Debian Linux 设备,它从内部 SSD 驱动器上的 ext3 分区启动。由于该设备是一个嵌入式“黑匣子”,它通常以粗鲁的方式关闭,只需通过外部开关切断设备的电源即可。
这通常是没问题的,因为 ext3 的日志记录使事情井然有序,所以除了偶尔丢失部分日志文件之外,事情一直在顺利进行。
但是,我们最近看到许多单元在经过多次硬电源循环后,ext3 分区开始出现结构性问题——特别是,我们在 ext3 分区上运行 e2fsck,它发现了许多类似的问题显示在此问题底部的输出列表中。运行 e2fsck 直到它停止报告错误(或重新格式化分区)会清除问题。
我的问题是……在遭受大量突然/意外关闭的 ext3/SSD 系统上看到这样的问题有什么含义?
我的感觉是这可能是我们系统中软件或硬件问题的迹象,因为我的理解是(除非出现错误或硬件问题)ext3 的日志记录功能应该可以防止此类文件系统完整性错误。(注意:我知道用户数据没有被记录在日志中,因此可能会发生被删除/丢失/截断的用户文件;我在这里专门讨论文件系统元数据错误,如下所示)
另一方面,我的同事说这是已知/预期的行为,因为 SSD 控制器有时会重新排序写入命令,这可能会导致 ext3 日志混淆。特别是,他认为,即使在正常运行的硬件和没有错误的软件的情况下,ext3 日志也只会降低文件系统损坏的可能性,并非不可能,因此我们不应该对时不时地看到这样的问题感到惊讶。
我们谁是对的?
Embedded-PC-failsafe:~# ls
Embedded-PC-failsafe:~# umount /mnt/unionfs
Embedded-PC-failsafe:~# e2fsck /dev/sda3
e2fsck 1.41.3 (12-Oct-2008)
embeddedrootwrite contains a file system with errors, check forced.
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Invalid inode number for '.' in directory inode 46948.
Fix<y>? yes
Directory inode 46948, block 0, offset 12: …Run Code Online (Sandbox Code Playgroud) 这本书“的HBase权威指南”指出,
不建议在单个服务器上安装不同的文件系统。这可能会对性能产生不利影响,因为内核可能必须拆分缓冲区缓存以支持不同的文件系统。据报道,对于某些操作系统,这可能会对性能产生破坏性影响。
这真的适用于Linux吗?我从未见过超过 300 MB 的缓冲区缓存,而且大多数现代服务器都有千兆字节的 RAM,因此在不同文件系统之间拆分缓冲区缓存应该不是问题。我还缺少其他东西吗?
我在我的服务器上使用 monit 来监控 apache 和 mysql 的运行。
现在我想在磁盘太满时添加警报。我添加了这个用于测试/etc/monit/monitrc:
check device rootfs with path /dev/md0
if space usage > 10% then alert
Run Code Online (Sandbox Code Playgroud)
我有两个要检查的分区:/和/var:
mount
/dev/md0 on / type ext3 (rw)
/dev/md2 on /var type ext3 (rw)
Run Code Online (Sandbox Code Playgroud)
除了磁盘空间之外,此配置中还有哪些有用的检查?
工程师如何处理 RAID 控制器电池“重新学习”周期?
如中所述:LSI MegaRaid 上的“电池重新学习”是什么?, 重新学习周期会使 RAID 控制器电池(BBWC 或 BBU)放电,从而取消写入缓存加速。检查电池寿命,充电后,重新启用写入缓存。在重新学习周期的持续时间内,这对服务器 I/O 性能有明显的影响。我认为这每月发生一次。
已经注意到性能下降,尤其是在数据库系统上:
我的背景是 HP ProLiant 服务器,它的Smart Array控制器没有经过这个练习(或者至少有更主动的电池寿命监控)。这似乎是一个可怕的功能(最大的不便,收益很小),但我在一个有许多 LSI 控制器(在Supermicro硬件上)的环境中,想看看是否可以将一揽子策略应用于相关系统。
试图保持在红帽的青睐范围内并仍然计划系统寿命是很棘手的......
一年多来,我一直是Linux Containers (LXC)的支持者。我的初始安装基于从在线教程中收集的信息,例如this one和this one。这个中心的周围lxc-create,lxc-start|stop并且lxc-destroy命令和修改现有OpenVZ的模板。
这运行良好,并在生产中愉快地运行。但是,我提出了一些额外的系统,并决定查看 Red Hat 当前有关 EL6 容器的文档。看到他们在这方面的官方立场,我感到很惊讶。
在RHEL 6 是否提供使用 Linux 容器所需的 LXC 工具?,Red Hat 将 LXC 描述为技术预览并建议使用 libvirt 来管理创建和管理容器。
然而,Oracle在其 Unbreakable Linux 中提倡一种完全不同的容器化技术。
libvirt 方法中似乎缺少一些功能,但是我最初使用 lxc-* 命令的方法有点像手动过程……我不太清楚在 EL6 上管理容器的方法或“可接受”方法.
我买了一台 HP DL360 G7 1 U 机架式服务器。我想把它放在一个托管设施中。问题是我见过的几乎所有设施要么限制我可以访问的电量,要么为超过提供的基本电量而收取额外费用。
严格来说,从服务器的电源额定值来看,我相信它说它们每块消耗 7 安培,其中有 2 个。但我的印象是 7 安培是电源全速运行时。
如何确定电源上的平均负载是多少?
服务器会在每个电源 2.5 安培的情况下愉快地运行吗?这就是科洛将为我提供的。
electrical-power hp colocation power-supply-unit hp-proliant
hp-proliant ×3
filesystems ×2
hardware ×2
linux ×2
bios ×1
cache ×1
centos ×1
colocation ×1
console ×1
containers ×1
debian ×1
dell-perc ×1
ext3 ×1
ext4 ×1
hp ×1
ilo ×1
libvirt ×1
lsi ×1
lxc ×1
monit ×1
monitoring ×1
multi-core ×1
opensolaris ×1
oracle ×1
pci ×1
performance ×1
raid ×1
redhat ×1
serial ×1
ssd ×1
xfs ×1
zfs ×1