扫一扫
关注微信公众号

Facebook分享高密度数据中心改造经验
2010-11-15   网络

Facebook庞大的用户基数给其数据中心带来了巨大的压力,当 Facebook的用户基数突破了5亿的时候,这意味着Facebook需要更多的服务器,更大面积的数据中心。为了解决这一问题,Facebook研究的是如何在有限的空间内提高服务器计算效率,从而应付急剧膨胀的业务增长。

在数据中心内部大量的采用高密度机架,对于管理这些机架和冷却是一个巨大的挑战。最近,Facebook为数据中心配备了全新的高密度服务器,在效能方面有了很大提升,每年能够节省280万千瓦电力,相当于减少排放温室气体1088吨。而且Facebook还和大家一起分享了这一高密度数据中心的改造经验。

小规模 高收益

Facebook改良后的数据中心位于硅谷,面积仅为14560平方英尺。但可别小看了这个不大的面积,其计算能力非常高,而且还采用了空气冷却方式,有效降低制冷成本。尽管改良后的数据中心面积较小,但其效率却高于原来56000平方英尺的数据中心。

这个高密度数据中心的散热通道宽度为八英尺,通道的地砖采用打孔设计,以增强空气流通性。里面的服务器为45U设计,前面板部分经过了改造,安装了气流分析、冷通道控制等设施,同时减少了服务器风扇能源,从而提高散热质量。Facebook的服务器和数据中心工程师Amir Michael发明了一个新的配电设计,这个配电设计免除了传统的数据中心不间断电源(UPS)和数据中心配电单元(PDU)。新的设计把数据中心的UPS和电池备份功能转移到储藏柜,每个服务器电力供应增加了一个12伏的电池。这个发明其实是来源于谷歌的一个灵感,因为之前谷歌曾经发布过集成一个12伏电池的一种电源,并允许它作为一种车载UPS。这种数据中心,除了具有能源高效的数据外,公司也把这种设计作为一个主要的因素。电源使用效率(PUE)额定值在1.1到1.2之间。

冷通道的控制

第一步是处理冷通道上的设计问题。在分析冷通道和高架地板的空气压力后,Facebook安装了一个冷通道控制系统,这个系统包括塑料的屋顶以及在每个通道的末端设置推拉门。数据中心工程的负责人 Jay Park和他的团队还将地面的瓷砖换掉,用实心的砖来取代传统的两孔砖。另外,Facebook还采取多种措施,密封冷空气使其无法外溢,最大限度的提高冷空气的冷却效率。

第二个步骤是针对风扇的效率。由于冷通道控制系统能够更好的控制气流,所以这就允许Facebook来降低服务器的风扇频率,这有利于服务器能够更好的发挥风扇的性能。Park说,我们针对服务器的运行情况做出监测,来使风扇的效率能够更好的适应服务器的负载。然后,我们和服务器制造商进行沟通,他们提供了一个更加合理的服务器风扇解决方案给我们。

推动行业的发展

Facebook公布他们的高密度数据中心改造解决方案的目的之一就是为了促进行业内相关方面的发展。在上述中的许多策略,如冷通道的控制,更换地板砖以及调整入口温度等等,这些措施在任何小型数据中心都可以很方便的测试。至于优化服务器风扇风速之类的措施,则对于一些大型数据中心来说比较容易---购买数量众多的服务器才能让厂商做出改变。

不过Park说,服务器厂商也应该接受来自小型数据中心的建议。他建议这些数据中心可以尝试和服务器供应商进行沟通,看他们是否愿意这样做。当有足够多的企业有这样的要求的时候,这就成了一个行业的新标准。此外Facebook还表示可以通过简化电力到服务器的方法降低电力开支。不仅这样,除了提高效率,新的设计在设备采购方面也节省了巨大的成本。因为公司不需要再购买传统的UPS和PDU系统,这样便可以节省百万美元,如果整个行业都发生采用这样的转变,那将是巨大的一个改观。在硬件设施方面Facebook同样采取了措施。像是一般的服务器使用208V电源配置到服务器,大多数电源也可以支持230V和240V的配置,而Facebook新的分配计划是要求277V的电源配置到服务器。为此他们也在和电力供应商合作创建能接受277V输入电压的电源供应器。

在解决了气流和风扇的问题后,Facebook的冷却能力大幅度提升,冷却通道的入口温度从51度调整为67度,此外,Facebook还加大了利用室外新鲜空气进行空气冷却的面积,从原来的2200个小时(大约三个月/每年)增加到6700个小时(超过个9个月/每年)。

热词搜索:

上一篇:企业桌面虚拟如何走向标准化
下一篇:企业数据中心:节能冷却的十大绝招

分享到: 收藏