该网站上从 2010 年到 2012年更新的一条消息线程位于因锌晶须而关闭的服务器机房,他们认为剥落是由活动地板及其支撑造成的。
我从事灭火行业,在我的职业生涯中(35 年),数据中心的工程师第一次说数据中心不能接受任何镀锌。在我经常使用的数百个数据中心、服务器机房、高架地板区域、电信开关设备房中,导管、盒子、支撑杆、吊杆、混凝土锚栓、管道吊环……仅提供锌电镀。在某些情况下,但不是所有情况下,热浸镀锌的产品成本更高,交货时间更长。
是否已确定锌晶须是由使用锌板的管道系统、电气元件、消防喷淋管和附件造成的?
从我读到和听到的关于数据中心的信息来看,使用水冷的服务器机房并不多,最大的数据中心都没有使用水冷(如果我错了,请纠正我)。另外,购买普通的水冷PC组件相对容易,而水冷机架服务器几乎不存在。
另一方面,使用水可能(IMO):
降低大型数据中心的功耗,特别是如果可以创建直接冷却设施(即设施位于河流或大海附近)。
减少噪音,减少人类在数据中心工作的痛苦。
减少服务器所需的空间:
那么为什么水冷系统在数据中心级别和机架/刀片服务器级别都没有普及?
是不是因为:
服务器级别的水冷几乎没有冗余?
与普通数据中心相比,水冷设施的直接成本太高?
这样的系统很难维护(定期清洗使用河水的水冷系统当然比仅仅真空清洗风扇要复杂和昂贵得多)?
我们有一个小型数据中心,大约有一百台主机指向 3 个内部 DNS 服务器(绑定 9)。当其中一台内部 DNS 服务器不可用时,我们的问题就出现了。那时所有指向该服务器的客户端开始执行非常缓慢。
问题似乎是股票 Linux 解析器并没有真正具有“故障转移”到不同 DNS 服务器的概念。您可以调整它使用的超时和重试次数(并设置轮换,以便它可以在列表中工作),但无论使用什么设置,如果主 DNS 服务器不可用,我们的服务执行速度会慢得多。目前,这是我们服务中断的最大来源之一。
我的理想答案是“RTFM:像这样调整/etc/resolv.conf...”,但如果这是一个选项,我还没有看到。
我想知道其他人是如何处理这个问题的?
我可以看到 3 种可能的解决方案:
使用 linux-ha/Pacemaker 和故障转移 IP(因此 DNS IP VIP“始终”可用)。唉,我们没有良好的围栏基础设施,没有围栏起搏器不能很好地工作(根据我的经验,没有围栏的 Pacemaker 会降低可用性)。
在每个节点上运行本地 DNS 服务器,并将 resolv.conf 指向 localhost。这会奏效,但它会给我们更多的服务来监控和管理。
在每个节点上运行本地缓存。人们似乎认为 nscd “已损坏”,但 dnrd 似乎具有正确的功能集:它将 DNS 服务器标记为启动或关闭,并且不会使用“关闭”的 DNS 服务器。
Any-casting 似乎只在 IP 路由级别工作,并且依赖于服务器故障的路由更新。多播似乎是一个完美的答案,但 bind 不支持广播或多播,我能找到的文档似乎表明多播 DNS 更侧重于服务发现和自动配置,而不是常规 DNS 解析.
我错过了一个明显的解决方案吗?
大量时间和专栏都用于讨论保护服务器免受外部攻击的问题。这是完全有效的,因为攻击者使用 Internet 破坏您的服务器比获得物理访问更容易。
然而,一些 IT 专业人员掩盖了物理服务器安全的重要性。许多(如果不是大多数)最严重的安全漏洞都是在组织内部执行的。
它是否就在小隔间中 IT 经理的办公桌旁边,还是被锁在几扇带有电子卡和生物识别访问权限的门后面?
一旦有人物理访问服务器,有哪些保护措施可以防止或至少记录访问他们没有合理需要查看的敏感数据?
当然,这会因组织和业务需求而异,但即使是打印服务器也可以访问正在打印的敏感数据(合同和员工信息),因此这比乍一看可能要多得多。
也许有点愚蠢的问题,但是
有时(很少但会发生)我需要将机架中的服务器向上或向下移动 1-2U。您认为哪种方式最正确和最有用,为什么?
从导轨上卸下服务器,拆下导轨,将它们装回新位置,将服务器放回导轨上
小心地,逐个孔(如果可能的话,一步 2-3 个)将导轨与服务器一起移动
以其他方式做所有事情(解释)
请不要写“你必须在组装前计划一个机架”等。这是计划一切的好主意,但不幸的是现实生活并不那么理想:)
我一直在对数据中心进行一些研究,这是我尚未考虑的术语之一。如果该领域的人能用简单的术语解释它到底是什么意思,我将不胜感激。
有人可以定义“堆栈”到底是什么。我知道它是一个行业术语,但它非常模糊。在内存分配方面,我指的是基础设施术语而不是“堆栈”。
我一直认为在同一台服务器中使用从 PDU 到冗余 PSU 的 Y 型电缆是完全可以接受的做法,但是我最近与某人交谈,说他们的主机不允许这样做。
我不是电工,但在我看来,由于 PSU 是多余的,因此它们不会同时绘图。如果是这种情况,似乎在两个 PSU 上使用 Y 型电缆不会有透支电缆或单个插座的额定载流量的风险。
我在这里错过了什么吗?为什么 Colo 会选择禁止在服务器机架中使用 Y 型电源线?
我有两台服务器,分别位于荷兰和法国的数据中心。两者都在运行 Debian Wheezy。我需要在他们之间共享 /home 并具有良好的性能。服务器上有 300 多个用户,其中大约 30 个应该能够在给定时间在给定服务器上拥有活动进程,每个进程具有 50 kbit 读取和 20 kbit 写入/秒,短峰值约为 2000 kbit/ s 阅读。在本地存储上使用 iotop 进行测量。我有很多小文件,总共大约 500000 个,需要尽可能低的延迟。服务器之间的 Ping 为 17 毫秒,使用 scp 和 wget 时连接能够达到大约 20-30 MB/s。似乎也应该有足够的带宽可用,但是...
到目前为止我已经证实: sshfs:似乎它比 nfs 具有更好的性能,但它随机地将文件的权限更改为 root,导致应用程序崩溃。
nfs:减慢方法,尝试了 noatime 和一堆其他选项,但它仍然表现缓慢,即使只有几个进程处于活动状态。
drbd:5 个小时的死胡同,当我意识到我实际上无法在两个系统上安装文件系统时:-(
glusterfs:拥有所有数据的本地副本听起来确实很有希望,但随机文件访问确实很慢,运行一段时间后,它变得难以置信的慢,几乎挂起。noatime 没有帮助。
再次 nfs:仍然缓慢。
对着键盘哭:根本没有改善。
接下来要尝试什么?每个失败的试验都在上周花费了一个晚上或更长时间,我真的很希望下一个方法起作用。是的,在两台服务器之间共享文件系统至关重要。
感谢您对这个问题的任何新想法。
大多数设备的额定湿度范围很广(例如,5% 到 95% 无冷凝)。
然而,理想的湿度是多少?例如,较高的湿度可以更好地将热量从设备中带走,但也可能更具腐蚀性。