Mat*_*ons 73 rack physical-environment rackmount datacenter
在安装机架式服务器时,心态上似乎存在很多分歧。已经有线程讨论电缆臂和其他机架安装配件,但我很好奇:
安装服务器时,您是否在服务器之间留了一个空的机架单元?为什么或者为什么不?你有任何经验证据来支持你的想法吗?有没有人知道一项研究可以最终证明一个人是否更好?
jj3*_*j33 82
如果您的服务器使用从前到后流通的冷却,就像大多数机架式服务器那样,留下间隙实际上会损害冷却。除了通过服务器本身,您不希望冷空气以任何方式到达热通道。如果您需要留出空隙(出于电源问题、地板重量问题等),您应该使用盲板,这样空气就不会在服务器之间通过。
Eva*_*son 23
我从未在机柜中的机架安装设备之间跳过机架单元。如果制造商指示我在设备之间跳过 U,我会,但我从未见过这样的建议。
我希望任何专为机架安装而设计的设备都会通过前面板或后面板排出热量。一些热量将通过机箱的导轨和顶部和底部传导,但与来自前后的辐射相比,我预计这会非常小。
Lau*_*mas 23
在我们的数据中心,我们不留空隙。我们从地板上吹来冷空气,缝隙会导致气流问题。如果我们由于某种原因确实有间隙,我们会用一块空白板盖住它。添加空白板立即使我们的冷通道顶部变冷,而我们的热通道变热。
我想我已经没有数据或图表了,但是一旦我们开始进行更改,差异就非常明显。机架顶部的服务器不再过热。我们停止了烹饪电源(我们以大约 1/周的速度在做)。我知道这些变化是在我们的数据中心经理从 Sun green 数据中心博览会回来之后开始的,他参加了一些关于冷却等的研讨会。在此之前,我们一直在机架前后的地板上使用间隙和部分填充的机架和穿孔瓷砖。
即使管理部门到位,消除差距的效果也更好。我们房间内各处的所有服务器内部温度现在都在规格范围内。在我们标准化电缆管理并消除间隙并纠正我们的地砖放置之前,情况并非如此。我们想做更多的工作来将热空气引导回 CRAC 装置,但我们还没有获得资金。
Google 不会在服务器之间留下 U,我猜他们担心热量管理。观看大牌球员如何完成这项工作总是很有趣。这是他们的一个数据中心的视频:http : //www.youtube.com/watch?v= zRwPSFpLX8I&feature= player_embedded
直接去4:21看他们的服务器。
我们有 3 1/2 个机架的集群节点及其在托管设施中的存储。我们跳过 U 的唯一地方是我们需要将网络布线路由到核心集群交换机所在的中央机架的地方。我们可以负担得起这样做的空间明智,因为机架的功率已经达到最大值,因此不可能在其中塞入更多节点:)
这些机器 24/7 以 100% CPU 运行,其中一些机器在 1U 盒子(4 个四核至强)中拥有多达 16 个内核,我还没有看到在大多数机器之间不留空间的任何负面影响。
只要你的设备有一个设计良好的空气路径,我不明白它为什么重要。
小智 5
如果地板上有冷空气,请不要留出空间,并在未使用的空间中使用空白。如果您只有一个使用标准空调装置的低技术冷却系统,当您将热服务器聚集在一起时,最好留出间隙以最大程度地减少热点。