技术文章

当前位置:www.5197.com > 技术文章 > 用油给您的服务器降温度下落

用油给您的服务器降温度下落

来源:http://www.btxygg.com 作者:www.5197.com 时间:2019-12-22 18:52

与传统的风冷相比,CarnotJet的效果要优秀得多。传统服务器的电源利用率大概在1.6,也就是说有近一半的能源被用在制冷上。世界上最高效的数据中心在投入了大量的人力物力之后也才能够把这个数字降低到10%-20%,与油冷系统依旧有很大的差距。

图片 1

图片 2

此番与英特尔合作进行试验的是德克萨斯州奥斯汀市一家名为绿色Green Revolution的公司,他们在一年前开始进行此项目。一年后的结果显示这项技术的确令人满意,英特尔的工程师Mike Patterson表示,此项技术不仅仅可以被用于网络公司的服务器,想把电脑性能最大化的个人也可以用油给主机降温。

图片 3

图片 4

Green Revolution进行油冷项目已经有好几年的时间了,这次与英特尔的合作让他们是大大风光了一把。他们的产品叫做CarnotJet,当你移除服务器上的硬盘和风扇,并将服务器放在Carnotlet中运行时,里面特制的冷却油会带走服务器的热量。这些被加热的油之后将被传输到一个散热器进行制冷,如此循环利用。

后来,IBM研究人员推出了直射式散热技术。这是一种水冷技术的新突破,在一个密闭的系统中将水直接喷射至芯片背板,并随后将吸附芯片热量的水分吸干。这套系统采用了多达5万个喷嘴和1个复杂的树状回路结构系统。

图片 5

这样的做法并不是英特尔独创的,曾经就有骨灰级玩家为了追求电脑性能把主机泡在油里,他们使用的还是植物油。不过现在连英特尔都开始使用“油冷系统”了,可见油冷有可能成为未来计算机制冷的发展方向。

但是,风冷也好,水冷也好,人们对技术的要求总是不满足的,为了数据中心更安全同时更加绿色节能,为了应对未来大数据时代,数据中心对于高密度的需求,一种新的制冷技术应运而生了,那就是将服务器直接浸入绝缘性液体运行的浸没液冷技术。

据称,这款超级计算机相比同样配置的风冷超级计算机可减少40%的能耗。而且余热还可以被用来对整个大学建筑物进行取暖,Aquasar的碳排放也因此减少了85%。

那如果把服务器泡在油里会不会产生任何的故障?请不要担心,英特尔在实验结束后回收了自己的服务器,将其送至故障分析实验室。实验室得出的结论是——完好如初。

图片 6

2008年:IBM首个水冷Unix服务器

你相信吗,英特尔把自家的一些服务器放在油里长达一年的时间,目的是为了给服务器降温!他们用亲身的体验证明了把服务器沐浴在油里中有显著的降温效果,这就是近年来出现的油冷系统。那些采用矿物油实现服务器散热的数据中心的电源利用率(PUE,等于数据中心总设备能耗/IT设备能耗)极为接近1.0,并且没有出现任何不良影响。你想不想给自己的主机也洗个油浴?

浸没液冷技术之所以受到众多厂商的青睐,主要是因为它突出的性能。首先,液体的冷却能力是空气的1000-3000倍;其次,液冷可实现高密度、低噪音、低传热温差、自然冷却等优点;另外,浸没液冷的功率密度可超过每机柜体积100kW、噪音低于50dB、PUE低于1.2.目前在浸没液冷服务器冷却技术的分类上又分为:单相冷却:即利用高沸点液体的比热温升过程带走热量,称为单相浸没冷却服务器或油(包括高沸点碳氢、硅油、氟化液)冷服务器。

1990年推出的IBM ES/9000产品家族,包括有8个水冷型号:330、340、500、580、620、 720、820和900。

发展的潜力

虽说油冷的表现令人满意,但英特尔也说短时间内自己并不会在所有的服务器上都采用油冷系统。根据Patterson的意思,英特尔现在对这项技术还处于评估的阶段。“我们现在还在计算,如果把油冷普及下去,我们具体能获得多少的利益”。

可以猜测的是,英特尔可能会在未来的产品中采用此技术,或是敦促与自己合作的服务器厂商把油冷技术普及化。油冷技术的优势是能够减少服务器在散热上花费的功率,所以选择此技术的单位和个人都对计算机性能有着极致的追求,或是对环保抱有很大的兴趣。

图片 7

一块浸在油中的主板

如果要说起油冷技术的应用,就得谈到高性能计算领域(HPC)。Patterson 说:“如果油冷的先进性能够在高性能计算领域得到体现,那么社会对它的接纳也会慢慢深化的。”与一般云数据中心使用的服务器不同,每台高性能计算服务器上都嵌有相当数量的高性能处理器与图形处理器,一台高性能计算服务器的造价能达到数万美元之多。这种强大的服务器的耗电是高端Xeon处理器的15到20倍,产热就更不用多说了。管理着高性能计算服务器的Greg Rusu说:“它比普通服务器不是热一点点,而是烫得多。”如果油冷技术能够应用于高性能计算服务器的制冷,虽说不会减少每台机器的成本,但却能减少一笔相当可观的运营开销。Green Revolution一些早期的客户也在进行该方面的尝试。

与风冷精密空调制冷相比,水冷精密空调制冷则呈现起步较早,发展缓慢的现象。

IBM Power575

发展的困难

当然并不是每一个人都愿意把原有的风冷系统升级到油冷系统,所以油冷系统的普及化需要从准备购买新服务器的那些人下手,让他们选择油冷服务器。Patterson 认为,英特尔的对此方面的研究会为整个服务器制造行业制定出一套参考体系,相关厂商也能做出响应推出采用油冷系统的产品。

目前绝大部分的服务器都是根据风冷系统设计的,部件布局也都在为风冷考虑。“我们要打破原有的一些规矩”,Patterson表示,“然后做出更棒的服务器。”具体来说,就是要把原先与风扇相关的设计统统抛开,把不能进油的硬盘密封起来(或是换用固体硬盘),并且把任何无法在油中正常工作的部件替换掉。原有的散热片也得淘汰掉,所有的部件布局都要为油冷进行调整。

Patterson认为,虽说油冷的概念现在还很新颖,但是它出色的节能水准很快就会得到市场的承认,油冷系统很快会成为企业的选择。因为对于还在使用风冷的企业而言,他们在建立一个数据中心时要为不仅风冷系统建造冷却系统,还需要把楼层建高以获得更好的散热能力,而这些都是一笔可观的开支。与热空气相比,热油的再利用也要方便得多,这对建立一个能源节约型的数据中心是至关重要的。

图片 8

是不是很有未来感?

然而想要打破人们固有的思想禁锢可并不容易,手握财权的决策者会想,“要把我们的服务器泡在油里?这太不靠谱了。”的确,要把你宝贵的主机和服务器放到液体里,总是让人有那么点心惊胆战。


 

文章编译自Gigaom: Intel immerses its servers in oil — and they like it!

作者: Derrick Harris

据了解,目前机房浸没液冷技术主要运用在比特币矿机和超算中心等高密度环境。

以成本效益和高能效的方式冷却计算机系统和数据中心,对IT部门来说一直都是一个巨大挑战。不论炎炎夏日还是冰雪严寒,机房都需要运行在一个空调系统保障的恒温环境下,使得机器能够持久稳定运行。空调系统的费用也就成为了IT部门的一个重大开支项目。

到上世纪70年代,机房专用精密空调出现,精密空调可以有效保障数据中心的恒温恒湿环境,而除尘方面采用新风系统和机房正压除尘,从而满足数据中心保持适度恒定,良好的空气洁净度、具备远程监控等要求。

QPACE超级计算机

数据中心为了追求更加的高效节能,冷却技术也发展出了多种形式。目前,数据中心市场上主要采取制冷方式包括:风冷精密空调制冷和水冷精密空调制冷。

IBM 3081型机散热片

目前,对于浸没液冷技术国内外很多厂商都都进行了研究,例如,IBM公司从20世纪70年代开始浸没液冷的研究,具有30多项机架式浸没液冷专利。美国的GRC开发了高沸点单相浸没的碳氢溶剂制冷系统。3M公司从2009年倡导使用低沸点氟化液的两相式蒸发浸没冷却系统。日本利用3M公司一种高沸点氟化液FC43开发的单相浸没超算系统。另外,我国的一些企业也在研究开发相关浸没液冷技术,例如曙光,从2012年开始就对液冷服务器技术进行了探索和研究。

在现有的温水、热水冷却技术和冷却回路技术等创新基础上,IBM还开发出一种可以直接使用自然水进行冷却的技术。通过这项技术,人们还可以进一步降低功耗,而且还无需对水进行加热或者制冷即可实现系统冷却。

虽然浸没液冷技术有诸多的优势,但是目前却无法大面积的使用在已建数据中心中,因为如果采用浸没液冷方式的话,需要对原有的数据中心结构进行较大改造,而这对于数据中心运营商来说是一笔不小的成本,另外,许多热负荷较低的小型数据中心机房可能并没有必要采用液冷的必要,因为风冷对于小型的数据中心机房来说已经够用了,液冷的优势主要体现在大型或者超大型的数据中心中。

图片 9

上世纪60年代,水冷开始被运用到大型计算机主机和高性能个人计算机中。起初,数据中心中的热负荷较低,使用风冷比水冷的成本低,所以当时更多的机房主要还是使用风冷。后来,随着设备的不断增加,服务器越发的密集,人们发现风冷已经开始不能满足冷却需求,这个时候水冷技术得以发挥出自己的优势,因为在热传导方面,水比空气有效得多,据测算,用于冷却时,水的效率是空气的3500倍。

2010年7月,IBM展示了首款采用“热水”的超级计算机Aquasar。该超级计算机是IBM为苏黎士瑞士联邦技术研究院而设计的计算机。水冷技术的发展也由此而翻开了新的篇章。

不过,浸没液冷技术的前景还是非常客观的,近几年,国内数据中心的建设如火如荼,并且数据中心正在向大型和超大型方面发展,液冷技术将会更好的发挥其技术优势。除了在数据中心方面的应用,液冷技术在未来的应用还要很多,比如现在越来越热的人工智能方面,人工智能的发展得益于大数据或者是深度学习算法,以及计算能力的提升,近年来对人工智能的研究有了很大的突破。在硬件方面,GPU并行能力的提升使得人工智能释放了一些全新的潜力。对于GPU本身来说,单个芯片的功耗可以达到300瓦以上,这样对于整个服务器来说,它的散热问题将是一个非常严峻而且有待解决的问题,而全浸没式的液冷技术则恰恰很好的解决了这个问题。

下面,让我们来回顾下IBM水冷技术的发展历程,从而帮助大家更深刻地了解水冷技术的可行性和特点。

近几年,数据中心的能耗问题受到越来越多的关注,并且已经成为制约数据中心行业可持续发展的重要因素。为此,2013年以来,政府相继出台了多项政策,对新建数据中心的节能水平提出了要求,北京更是暂停了PUE>1.5的新建数据中心审批工作。

2008年3月举行的CeBIT大会上,IBM展示了一种零排放数据中心的方案。根据该方案,可实现对芯片级的智能水冷回路。相比传统的风冷数据中心,这种智能水冷回路不仅有利于降低40%的能源消耗,而且也可以循环利用余热(比如室内取暖)。这套原型系统能将数据中心运营所需能源的四分之三进行再利用。

大约10年前,人们发现将水冷管道通过机架直接接入到服务器上,并配合处理器散热器上的水冷铜座共同发挥作用,这种方式的散热效率相比之前的更好。

图片 10

科技是第一生产力,科学技术的发展推动着整个社会的发展,而机房冷却技术的发展将在很大程度上推动着数据中心的发展,浸没液冷技术作为一种高效,节能,安全的冷却技术,在将来必将成为越来越多的数据中心的选择。

图片 11

数据中心早期并没有专用的精密空调,也没有统一的标准,早期的数据中心主要用的是民用大功率空调,这种空调主要是为人而设计,并不合适在数据中心的环境中使用,与机房专用空调相比在恒温、恒湿、除尘等方面均达不到数据中心的标准。在数据中心发展初期,由于受到当时条件所限,使用这种空调也只是权宜之计。

IBM最先使用水冷技术的时间可以追溯到1966年。当时,IBM推出了System/360型91大型计 算机。这款计算机是当时运算速度最快、性能最强的机器,主要被设计用来处理科学应用的高速数据处理(比如太空探索、亚原子物理学、全球气候预测等等)。因此,为了确保 大型机在长期的高速运算中不会发生过热而宕机的事件,IBM就研发了这种专门的水冷系统。

相变冷却:利用低沸点氟化液或其他绝缘易蒸发液体的气化过程带走热量,称为相变冷却式服务器或蒸发冷却式服务器。

IBM 3081型机是一款结构非常复杂的大型机(诞生于1980年11月12日)。在这款机器上拥有两个最具特色的高能效设计。其中一个是从大型机之前的68KW功耗降低到23KW,另外则内置有水冷技术,在传统的风冷设计的基础上还新增了散热片。

另外,在前沿科学领域,例如大气或者是洋流的仿真研究,包括天体物理的数据处理,包括宇宙演化的模拟,全球气候变化的模拟等。在这些研究的过程当中伴随着大量的数据运算分析处理,包括图片的分析处理,所以在科研领域,在未来对芯片的性能要求会是非常高的。全浸没式的液冷技术能够很好的解决芯片的散热问题,同时提高芯片的性能。

IBM SuperMUC超级计算机

【编辑推荐】

2010年:IBM热水冷却超级计算机

2000年以后,我国改革开放到了一个新的时期,国内互联网开始快速发展,数据中心也进入到了一个新的发展阶段。因为网络的普及,互联网的发展,信息传递越来越频繁,产生的数据量和计算量越来越大,这时为了保障数据中心的安全稳定,人们对精密空调系统的高可用性提出了更高的要求,在空调系统设计中,可用性、绿色节能、动态冷却成为了主要的创新方向。

图片 12

再后来,因为水冷能耗低,效率高等特点逐渐也成为了机房冷却的主要方式。

图片 13

图片 14

1966年:IBM翻开水冷技术发展历程

1990年:大型机广泛采用水冷技术

IBM热水冷却超级计算机Aquasar

在2008年4月,IBM展示了其首个采用水冷技术的超级计算机Power 575。这款Unix机器包括 有14个内置水冷管道的服务器。这些水冷管道通过机架直接接入到服务器上,并配合处理 器散热器上的水冷铜座共同发挥作用。

2006年10月在论坛召开的Power and Cooling Summit峰会上,IBM研究人员展示了最新的旨在提高计算机芯片散热效率的新技术——direct-jet impingement(直射式散热)。这是 一种水冷技术的新突破,在一个密闭的系统中将水直接喷射至芯片背板,并随后将吸附芯片热量的水分吸干。这套系统采用了多达5万个喷嘴和1个复杂的树状回路结构系统。

自然水冷却

1980年:IBM 3081上的散热片

2012年:自然水冷却技术

零排放数据中心模型

德国巴伐利亚科学院莱布尼茨超级计算中心(LRZ)运营的SuperMUC,是一款采用了革新性 温水冷却技术的超级计算机。处理器、内存等重要部件都直接通过45摄氏度的温水来实现冷却。如此高温的液体冷却技术,配合专有的软件,可大幅降低系统的能耗。而且,LRZ还将计划将利用系统散热后的余热对建筑物进行供暖。

2006年:水冷技术新突破

有数据统计,空调制冷的数据中心中。25%的能耗不是由计算设备产生而是由冷却系统产生。因此,能好和碳排放方面,冷却系统促成的压力也越来越大。IBM也同样认识到这一点,并很早着手进行水冷技术的研发和应用。在过去几年,数千家企业受益于IBM的Rear Door Heat Exchanger背板换热器技术,通过在服务器机架背板散热,可以减少55%的空调制冷需求。

2008年:零排放数据中心

【编辑推荐】

IBM能效实验室工程师Milnes David,正在检查针对每个能源部而开发出的水冷系统。目前,该项目已经接近尾声。它旨在为全球3300万台PC服务器提升能效,IBM也因此而获得21项技术专利。该专利主要是通过采用自然水来对服务器进行冷却。

2009年:水冷超级计算机荣登Top Green500榜首

IBM为尤利希研究中心、雷根斯堡大学、伍珀塔尔大学建造的三台相同的水冷QPACE超级计算机,荣登2009年Green500排行榜榜首,成为全球最具能效的超级计算机。

细小喷嘴

2012年:首尔商用热水冷却超级计算机

本文由www.5197.com发布于技术文章,转载请注明出处:用油给您的服务器降温度下落

关键词: 英特尔 数据中心 服务器 www.5197.com