首页 >> 机柜问题解答

怎么来解决服务器机柜温度过高的问题呢?

发布时间:2011-9-8 18:48:49 被阅览数:21170次 来源:厦门凌众科技有限公司
尽管机房的温度已经低到了18摄氏度,但放置多台服务器的机柜里温度却明显偏高,以致影响到了这些服务器的正常运行,不得已只得把这些机柜的门打开,搬来电风扇给这些服务器降温。有没有什么办法可以帮助解决这个问题呢?

服务器机柜内温度过高是目前数据中心普遍存在的问题,由于服务器内温度过高导致服务器宕机的例子也不鲜见。有机构对数据中心服务器宕机的原因做过统计,发现除了服务器本身出现故障导致宕机外,另外两个最主要的原因分别是环境温度过高(占32%)和断电(占22%)。

导致机柜内温度过高有两个原因: 一是由于服务器的数量不断增加,使得数据中心内空间越来越紧张,不得已在机柜中摆放越来越多的服务器。而且,目前计算机的发展方向是越来越小、越来越紧凑,特别是刀片式服务器的出现,导致数据中心机柜内的温度远远超过计算机等设备可以承受的范围。另一个原因是目前的服务器通风大多采用前进后出(而传统的服务器是下进风、上出风),但这些机柜还是像教室里的课桌一样一排排摆放,前面的热气传递给了后排的机柜,冷热空气的混合很不合理,而传统的机房精密空调只是考虑了将冷气送到机房,没有考虑如何有效地把冷气送到机柜里。

以机柜为中心的精密空调

按照目前机柜散热的设计标准,一个机柜里最多可以保证2KW的散热要求,而普通一台服务器功率消耗在300W左右,这样一个机柜最多就可以放8台服务器。但是,实际使用中数据中心很少在一个机柜中放置四台以上的服务器,原因就在于机柜内温度通常会很高,严重的会导致宕机。

为了解决这个问题,精密制冷空调系统及其综合解决方案被引入数据中心机房。其实,精密空调的出现已经有几十年的历史了,主要用在那些对温度、湿度和空气质量等要求比较高的场所。国外精密空调在大型数据中心应用得已经很普遍了,在我国较大的数据中心也部分采用了精密空调,而对于中小机房普遍采用的还是普通的舒适性空调。不过,对于传统的精密空调,它只能解决数据中心机房内的温度问题,却解决不了机柜内的IT微环境问题,因为它没有考虑到冷气的分配和传输,无法把冷空气送到机柜内部温度最高的地方。

在目前的精密空调市场,我国精密空调生产商还不多见,国外生产商占领了大部分中国市场。而且对于那些老牌的精密空调厂商来说,虽然他们已经在市场上占据了较稳定的市场份额,但是却没有很好地适应IT的发展。当机架式服务器已经越来越多地进入机房,当一排排机柜已经成为数据中心的主角,它们却没有关注高密度机柜中的散热问题。一直活跃在UPS领域的APC,近期发布了其精密制冷系统解决方案,APC倡导的“以机柜为中心的”理念给那些长期受机柜温度过高问题困扰的数据中心带来了一个好消息。

APC NetworkAIR FM系列精密空调

与传统精密空调将关注重点放在制冷能力上不同,APC精密制冷解决方案将关注点集中在了真正需要保护的机柜内部,整个解决方案包括三个部分: 气流的产生、气流的配送、气流的移动(和返回),这三个部分就是整个制冷解决方案的核心。而这其中的气流的配送和气流的移动(和返回)在传统精密空调中很少考虑。

APC推出的NetworkAIR FM系列精密空调采用模块化的设计、平均值控制,可大大提高控制的精密性,防相抵触操作,可避免由于系统内耗而造成的能源浪费。

气流配送单元和排风单元是APC制冷空调解决方案中的特色。气流配送单元(ADU)和排风单元(ARU)突破了传统的制冷系统单机柜2KW以内的热负荷输出限度,能有效地将进出机柜的风温差控制在11摄氏度以下(研究表明,机柜内部温度高于21摄氏度时,每上升11度,电子器件的可靠性将降低50%)。比如,ADU 860提供860立方米/小时的风量可以使机柜内的热负荷在2KW~4KW之间都不会产生热点;而ADU 2030提供2030立方米/小时的风量可以带走机柜内8KW的热负荷。

除了气流配送单元和气流排风单元以外,在气流移动和返回设计上,该精密制冷空调系统也做了精心设计,APC提出了独到的“热通道”和“冷通道”概念。根据APC的研究,如果将机柜从像课桌那样都向同一方向摆放改为“面对面、背靠背”的摆放方式,就能节约40%的能源消耗。因为这样更符合服务器等IT设备从正面进风、从后面排风的设计,能有效地将冷、热空气分区,避免了前排机柜排出的温、热空气与冷空气混合进入后排机柜内导致制冷效果降低的问题,从而提高制冷效率

  • 电话咨询

  • 05925908028