彩世界平台-彩世界时时app-彩世界开奖app苹果下载

热门关键词: 彩世界平台,彩世界时时app,彩世界开奖app苹果下载

您的位置:彩世界平台 > 彩世界时时app > 数码主导制冷选用 风冷液冷哪个人更佳?(1)

数码主导制冷选用 风冷液冷哪个人更佳?(1)

发布时间:2019-10-11 23:16编辑:彩世界时时app浏览(57)

    ILM公司Industrial Light & Magic)最近用目前最热门的IBM BladeCenter服务器上替换其旧服务器。ILM公司的这一举措将把数据中心单个机柜的电能消耗平均减少140千瓦,节省幅度达到84%。不过,新机柜中的热密度反而更好高了:现在每个机柜用电28千瓦,而之前为24千瓦。这些电能最终都要转换成热能,而这些热能会透过机柜散发到数据中心,最后由数据中心的空调系统带走。

    近几年,数据中心的能耗问题受到越来越多的关注,并且已经成为制约数据中心行业可持续发展的重要因素。为此,2013年以来,政府相继出台了多项政策,对新建数据中心的节能水平提出了要求,北京更是暂停了PUE>1.5的新建数据中心审批工作。

    新机柜配有84台刀片服务器,每个刀片服务器有2个四核处理器和32GB的内存。这些服务器功能非常强大,与3年前采购的BladeCenter相比,一台服务器的处理能力相当于过去的7台BladeCenter。这家公司主要进行电脑特技设计,这些机柜组成渲染农场用以对图像进行处理。一个新的42U机柜产生的热量相当9个家用烤箱以最高温度工作。为了制冷,ILM数据中心的空调系统几乎是满负荷工作。

    数据中心为了追求更加的高效节能,冷却技术也发展出了多种形式。目前,数据中心市场上主要采取制冷方式包括:风冷精密空调制冷和水冷精密空调制冷。

    惠普副总裁兼关键基础设施服务部门总经理Peter Gross介绍说,近年来新建的大多数数据中心其设计制冷能力大都为每平方英尺100-200瓦,每个机柜的制冷能力为4千瓦。而一个数据中心的设计制冷能力达到200瓦时才能支持平均5千瓦的机柜热密度。如果对气流流向进行精心设计和专门优化,机房的空气调节系统有可能保证用电量达25千瓦的机柜。而现在ILM公司的数据中心每个机柜用电达到28千瓦,这已经是现有的机房空调系统最高极限了,从事数据中心能效研究的IBM 研究员兼首席工程师Roger Schmidt说,“ILM是在挑战30千瓦的极限,这将注定是一个相当艰苦的工作。”

    数据中心早期并没有专用的精密空调,也没有统一的标准,早期的数据中心主要用的是民用大功率空调,这种空调主要是为人而设计,并不合适在数据中心的环境中使用,与机房专用空调相比在恒温、恒湿、除尘等方面均达不到数据中心的标准。在数据中心发展初期,由于受到当时条件所限,使用这种空调也只是权宜之计。

    这是可持续发展?

    图片 1

    现在的问题是接下来会发生什么?“未来用电量还要增加怎么办?完全可能因为制冷问题无法解决,导致我们不能在往数据中心中添加任何设备。今天,这个问题已经开始显现出来了。”Schmidt说。

    到上世纪70年代,机房专用精密空调出现,精密空调可以有效保障数据中心的恒温恒湿环境,而除尘方面采用新风系统和机房正压除尘,从而满足数据中心保持适度恒定,良好的空气洁净度、具备远程监控等要求。

    Schmidt认为超过30千瓦的高功率密度计算以后将不得不依赖于水冷。不过其他专家表示,数据中心的相关设备制造商也有可能通过通力合作降低服务器的部署成本,使得服务器不用都挤在机柜中,而是分开摆放,这样机柜中的热密度就不至于越来越高。

    2000年以后,我国改革开放到了一个新的时期,国内互联网开始快速发展,数据中心也进入到了一个新的发展阶段。因为网络的普及,互联网的发展,信息传递越来越频繁,产生的数据量和计算量越来越大,这时为了保障数据中心的安全稳定,人们对精密空调系统的高可用性提出了更高的要求,在空调系统设计中,可用性、绿色节能、动态冷却成为了主要的创新方向。

    ILM信息技术总监凯文-克拉克对采用新的刀片服务器后获得的计算能力的提升和节电效果很满意,他说这也符合当今节能环保的大趋势。根据IDC的研究,服务器的平均价格自2004年以来已经下降了18%,而CPU成本下降了70%,达到715美元。但克拉克无法知道,这种计算密度成倍增长持续下去的话,自己的机房到底还能维持多久。“就现有的机房设备而言,如果计算密度加倍的话,从制冷的角度来说,就是难以满足需求的。”他说。

    与风冷精密空调制冷相比,水冷精密空调制冷则呈现起步较早,发展缓慢的现象。

    他并不是唯一关注制冷问题的人。40多年来,计算机行业按照摩尔定律规定的进程快速发展,每两年计算密度增加一倍。然而,现在一些工程师和数据中心的设计师们开始怀疑这条道路的可持续性,这条路似乎已走到了尽头。现在面临的困难不只是芯片制造商是否能够克服制造更密集晶体管所面临的技术挑战,还在于现代数据中心要运行和管理如此多的高计算密度的机柜是否经济。

    上世纪60年代,水冷开始被运用到大型计算机主机和高性能个人计算机中。起初,数据中心中的热负荷较低,使用风冷比水冷的成本低,所以当时更多的机房主要还是使用风冷。后来,随着设备的不断增加,服务器越发的密集,人们发现风冷已经开始不能满足冷却需求,这个时候水冷技术得以发挥出自己的优势,因为在热传导方面,水比空气有效得多,据测算,用于冷却时,水的效率是空气的3500倍。

    现代数据中心机柜中安装的IT设备越来越多,这不仅意味着机柜用电量大大增加,还意味着后面的所有辅助设施的容量和用电量也相应增加,包括冷却系统、配电设备、UPS和发电机等都会按比例增加。这值得数据中心经理们注意。

    后来,IBM研究人员推出了直射式散热技术。这是一种水冷技术的新突破,在一个密闭的系统中将水直接喷射至芯片背板,并随后将吸附芯片热量的水分吸干。这套系统采用了多达5万个喷嘴和1个复杂的树状回路结构系统。

    IDC公司在2009年曾调查了1000家数据中心的负责人,接受调查者中21%的人将电力和制冷列为数据中心当前面临的最大挑战。将近一半43%)的人说这是它们运营成本增加的最主要原因,1/3的人说他们经历过因制冷问题或者电力问题导致的服务器宕机。

    大约10年前,人们发现将水冷管道通过机架直接接入到服务器上,并配合处理器散热器上的水冷铜座共同发挥作用,这种方式的散热效率相比之前的更好。

    Christian Belady是微软全球基础服务集团经验最丰富的基础设施架构师,负责设计和管理着微软最近在美国华盛顿州昆西市建立的数据中心。他说,采用高架地板形式的数据中心单位建设成本太高,微软在昆西的数据中心基础设施的建设成本占项目总成本的82%。

    再后来,因为水冷能耗低,效率高等特点逐渐也成为了机房冷却的主要方式。

    “我们必须改变过去的那种错误观点,就是计算密度越高越好。”Belady说,“要知道,你的计算密度加倍意味着所有的辅助设施、制冷系统容量都要加倍。”

    图片 2

    本文由彩世界平台发布于彩世界时时app,转载请注明出处:数码主导制冷选用 风冷液冷哪个人更佳?(1)

    关键词: