我已经配置了 monit 测试和警报——但我想确保我的警报堆栈中的所有内容(外发电子邮件服务器、短信电子邮件网关……)都能正常运行。有没有一种方便的方法来触发虚拟测试警报?
我有一个 centos 服务器,我想每两天晚上 11 点在它上面运行一个作业,我该怎么做?
在三周的时间里,我在客户站点经历了六次 LTO-1 和 LTO-2 磁带驱动器完全故障。有些机制失败了。其他人则失去了可靠写入的能力。这些是 HP Ultrium 232、448 和 460 驱动器。大多数这些单位是在 2006 年和 2008 年之间部署的,因此失败的时机是正确的。容量 (400GB) 适合应用程序。我用等效的设备替换了几个驱动器,只是为了保持一致性。一台服务器也有 SCSI HBA 故障,进一步延迟了恢复。那时,客户询问是否有比磁带更好(或更少挑剔)的可用硬盘解决方案。
当我开始寻找替代品时,我发现RDX 可移动磁盘存储技术已被主要服务器制造商(HP、Dell、IBM)采用。从我的角度来看,它看起来像是通过 USB2 内部或外部连接的对接 2.5" SATA 磁盘,容量高达 1TB。由于这些是实际磁盘,因此恢复和寻道时间似乎是合理的。但我有几个问题实践中的技术。
mkfs命令在/dev/sda. 是否有任何设备的重命名/重新排序(从添加SCSI控制器,插入USB密钥等)的机会,或将对接单元在一个特定的设备名称坚持为你更换驱动器?我很好奇,因为这可能是一个有趣的选择。一系列磁带驱动器故障发生之时,在继续前进之前重新评估其他选项是有意义的。
我正在改变我们的 DHCP/DNS 工作方式。目前我们有 3 个 DNS 服务器和一个 DHCP 框。它们都是虚拟机。
有一个循环依赖项,启动需要 NFS,而 NFS 需要 DNS。所以当我们重新启动东西时,事情可能会微妙地恢复,直到 DNS 启动,我们重新启动一些服务。
我想要做的是有一些低功耗服务器,可能是双核 Atom 或类似的,从 SSD 运行,以便它们快速启动。我想让整个事情尽可能接近瞬间启动。
理想情况下,我想使用 Ubuntu 11.10 或 Debian 6 作为操作系统。我对 Gentoo 或编译我自己的内核不感兴趣。这需要我自己合理支持。
除了 SSD 驱动器,我还可以采取哪些其他优化步骤来提高启动速度?
是否可以创建 ZFS 集群?或者您是否需要使用由 GlusterFS 管理的 UFS 格式池来走 ZFS 看似丑陋(至少对我而言)的路线?
我们的想法是看看是否可以扩展到 ZFS 应该能够顺利处理的多拍字节分布式存储。
任何指针,博客,帖子?
我正在完全通过 ILO 进行远程服务器安装(但这也适用于 IPMI 和 VMWare 控制台会话)。由于软件应用程序和环境的原因,我的访问仅限于我必须通过 RDP 访问的 Windows 服务器。从该系统到目标服务器是通过 HP ILO2 或 ILO3 完成的。
我正在尝试在无法使用全自动部署系统的环境中运行 CentOS 安装。我是通过文本模式执行此操作的,但是按键是随机重复的,并且很难选择正确的安装选项。例如:
ks=http://all.yourbase.org/kickstart/ks.cfg
最终看起来像:
ks====httttttp://allll..yourbaseee.....org/kicksstart/ks.cccfg
我正在使用 Microsoft 的 RDP 客户端(在 Mac 和 Windows 上)执行此操作。我之前在嵌套会话中运行安装或进行远程工作时也注意到了这一点。

是否有一个很好的解决方案,或者它只是协议的一个功能?
我们有一个内部网络服务器(虚拟化,托管 ReviewBoard,但不是超级相关),我们有一个相对一致的失败模式,失败的 NFS 挂载导致 / 被填满。Distro 是 Ubuntu(不要问)如果一个解决方案依赖于不同的发行版,它的实现会更慢。
正在对 /mnt/backup/ 执行备份,这应该是将 NFS 挂载到另一个系统。不幸的是,当挂载失败或掉线时,会在根文件系统上执行备份,正如您想象的那样,在 / 已满之前不会花很长时间,然后服务开始失败。
已经讨论了许多可能的解决方案。
监视 /mnt/backups 并确保它不是 root。也许是一项 cron 工作。
使用 /mnt/protected/backups,并首先将 /protected 挂载到一个小文件系统,也许是一个循环挂载到本地文件,这样它就不太可能失败。
chmod a-rwx /mnt/backups(根文件系统挂载点)。我不确定安装在受保护的导演上是否可行,我认为确实如此。
在挂载的树上创建一个名为“Backups”的目录,然后软链接“ln -s /mnt/backup/Backups /Backups”。除非挂载 /mnt/backup,否则使用 /Backups 进行备份将失败,因为本地树不包含子目录。
执行检查目录是否正确安装在备份脚本中。
我对这些方法的任何反馈、利弊或人们用作保护根文件系统免受此类恶意行为的标准方法的任何其他技术感兴趣。
我知道 VMWare KB 不喜欢长时间运行的快照主要是由于两件事(在我看来)
拍摄大量快照可能会填满数据存储。快照只是增量文件。假设您有一个 50 Gig VMDK,几乎已满,并且您拍摄了快照。在您的快照中,您翻转每一位。您的增量文件也将约为 50 GB。再次快照,翻转位,另一个 50 Gig 增量文件。这些会很快失控。
提交大型快照会带来风险。整合快照时,您将增量更改写入原始 VMDK。这需要时间并带来风险,如果发生某些事情,您只会破坏 VMDK。
他们的警告似乎合乎逻辑。
话虽如此,永久关闭快照 VMDK 运行我的机器本质上是不好的吗?我想让我的树如下:
Snap 1 和 2 将在安装和配置基本系统后立即进行。这些是我计划经常刷新的机器,所以我只会让我的树看起来像下面这样:
删除 Snap2 并重新创建 Snap2。
由于以下原因,我看不出这会产生什么影响:
由于我只是安装了一个基本映像并在无法填满数据存储后立即获取了我的增量。假设我的基本映像只有 10 GB(在 50 GB 的精简配置磁盘上),即使我的增量翻转了每一位,我的最大总使用量也可能是 60 GB(已锁定的 10 GB 基本 VMDK + 50 GB 的增量在快照 VMDK 文件)。这假设我不创建任何进一步的快照。
由于我的用例不要求合并快照,因此我不会在合并增量时冒错误风险。当我移回 Snap1 并删除 Snap2 时,驻留在 Snap2 中的所有增量都会被删除。
存储负载完全相同,所以我应该获得相同的 IOPS。我知道某些文件(主要是系统文件)将存在于原始 VMDK 中,而其他文件(基础之后的所有文件)将驻留在增量中,但我不知道 ESXI 会如何关心。所有文件都在同一个物理数据存储上,因此性能应该相当于在没有快照的情况下引用原始 VMDK 中的所有内容。
有什么想法吗?ESXI 5.5,数据存储为 RAID 的 DAS。
我没有 vCenter …
我打算在我的系统(HP ML370 G5、Smart Array P400、8 SAS 磁盘)上使用 ZFS。我希望 ZFS 单独管理所有磁盘,以便它可以利用更好的调度(即我想在 ZFS 中使用软件 RAID 功能)。
问题是,我找不到禁用 RAID 控制器上的 RAID 功能的方法。现在,控制器将所有磁盘聚合到一个大的 RAID-5 卷中。所以 ZFS 看不到单个磁盘。
有没有办法完成这个设置?
我对基于 PCIe 的存储的最新发展感到有些困惑,特别是因为它与 NVMe 规范及其硬件兼容性有关。
虽然我在磁盘外形尺寸的SSD和一些更高端的 PCIe 设备(如Fusion-io )方面进行了广泛的工作,但我处于不了解 NVMe 基础知识的位置,并且正在寻求有关服务器类型的说明支持硬件。
...高性能 CPU PCI-E Gen3 直接连接到 NVMe 设备。
我正在处理基于 Linux 的软件定义存储解决方案,并希望使用备用 Fusion-io 设备,该设备使用专有驱动程序(向操作系统显示/dev/fioX设备名称)。
当我向供应商寻求帮助时,得到的答复是:
“fioX”设备命名已被新的 NVMe 设备接口淘汰。这意味着我们购买过时的适配器来增加其他人没有要求的支持。
这似乎有点苛刻。我不认为 Fusion-io 适配器已经过时。
我在网上找到的稀缺信息似乎暗示 NVMe 仅支持绝对最新一代的服务器硬件(英特尔 E5-2600v3 CPU 和 PCI 3.0 芯片组?)。但我无法验证这一点。
这是真的?
采用率是多少?这是工程师在他们的设计决策中考虑的事情,还是我们在谈论尚未完全形成的“标准”?
如果 NVMe仅适用于市场上的最新系统,那么(向供应商)建议我的旧系统的安装基础不能与 NVMe 兼容是否合理,因此值得添加我请求的支持?
storage ×5
linux ×3
backup ×2
hardware ×2
performance ×2
vmware-esxi ×2
zfs ×2
boot ×1
centos ×1
cluster ×1
console ×1
cron ×1
filesystems ×1
fusionio ×1
glusterfs ×1
hard-drive ×1
hp-proliant ×1
ilo ×1
ipmi ×1
monit ×1
monitoring ×1
mount ×1
nvme ×1
raid ×1
rdp ×1
snapshot ×1
ssd ×1
tape ×1