“水漫机房”开启降温新时代,液冷让数据中心更清凉

2022-12-02 10:49:49 和讯 

  热浪滚滚,噪声隆隆,仿佛过火焰山般地煎熬,恐怕是很多进过机房的朋友共同的感受。如今,这样的局面正逐步得到改善。

  在南京滨江中兴通讯的智能制造基地里,机房的几排服务器和通信设备正在高效有序的运转。然而,身处房间的人们却丝毫感受不到炎热与嘈杂。

  设备机柜中投射的点点蓝光,宛如沁人心脾的海水,诠释着其中的奥秘。这个名为全液冷数据中心的场所,就是中兴打造的通过液体环流实现降温的新一代数据中心。

  PUE指标日趋严格,机房建设面临新挑战

  若干年前,当数据作为一种新型生产要素被写入中央文件,数字化与实体产业融合的浪潮便开始席卷神州,为我国经济的蓬勃发展注入了强大的生命力。近日,国务院新闻办公室发布的白皮书显示,2021年我国数字经济规模达45.5万亿元,总量已居世界第二位。

  随着海量数据以生产要素的形态,向社会经济领域渗透,各行各业对算力的需求正快速增长。数据中心作为可提供数据存储、处理、流通的算力基础设施,也迎来了大规模建设的发展机遇。

  据中国通信院数据,按照标准机架2.5kW统计,预计2022年我国数据中心机架规模将达到670万架,近五年复合年均增长率超过30%。

  今年初开始,国家层面又陆续提出了“东数西算”全国一体化数据中心建设、全国一体化政务大数据体系建设、全民健康信息平台支撑保障体系建设等一系列数字化发展要求,有望进一步加速全国数据中心的建设。

  不过,数据中心在加速建设的同时,也面临着高能耗的问题。

  工信部数据显示,2021年我国数据中心耗电量为2,166亿kWh,占社会总耗电量的2.6%,这其中除了设备自身的运行外,最大的用电来自于机房的散热系统。根据一些机构统计,传统数据中心用于散热的能耗占比,甚至能超过整个数据中心的40%。

  从国家层面来看,散热能耗占比过高的传统数据中心,显然不符合“双碳”目标的实现以及社会节能减排的大趋势。

  2021年7月,工信部印发《新型数据中心发展三年行动计划(2021—2023年)》,针对数据中心耗能大的特点,要求新建数据中心能效水平稳步提升、PUE逐步降低,可再生能源利用率逐步提高。东数西算政策要求东部城市数据中心枢纽节点PUE在1.25以下,西部城市数据中心枢纽节点PUE在1.2以下。

  为达到国家对新建数据中心的能耗要求,如何减少机房的散热能耗,便成了各方急需解决的问题。

  节能效果提升明显,液冷系统逐渐流行

  目前,传统数据中心的散热方式,主要通过风冷手段进行,即以空气作为冷媒带走热量。这就需要配备大量的机房空调和风机,不仅能耗高,还会带来较大的噪声污染。根据CDCC的报告,传统风冷数据中心的PUE仅能做到1.5-1.8,与国家要求的指标还有较大差距。

  而且随着算力设备功率的提升,以及社会对高密度、超高密度数据中心需求的增长,风冷降温的手段正日渐式微。

  作为近年来新出现的散热手段,液冷技术使用各类液体充当冷媒,与设备的发热部件进行热交换,能为数据中心带来更高效的降温体验,采用自然冷却无需机械辅助制冷,可有效降低散热系统的能耗,大幅提升设备运行的温控效率。

  据中银证券测算,以单机房为例,假设200台服务器总功率为192kW,液冷方案比传统风冷方案可省电30%,虽然新投入的液冷建设成本有所提升,但整体节约的运行成本随着使用年限的增长逐步增加,三年和五年的项目成本,液冷较风冷可减少7%和12%。

  传统的风冷方式可以满足10kW/机柜以内的数据中心散热需求,但当功率密度继续升高,30kW/机柜是风冷散热能力的极限,而液冷方式可满足最高200kW/机柜的数据中心散热需求。

  从行业的技术路线来看,主流的液冷方案有冷板式、浸没式液冷两种,前者主要是通过在热源上覆盖水冷板,依靠流经冷板的液体将热量带走;后者则是将热源直接浸没在冷却液中,通过冷却液循环带走热量。

  尽管从效果来看,直接接触液体可以更有效的利用液体的比热容,但考虑到技术成熟度、可靠性、技术通用性、结构颠覆性等多方面因素,当前液冷数据中心以冷板式液冷占据主流地位。

  中兴一体化液冷方案,实现机房场景全覆盖

  作为ICT赛道的重度玩家,中兴通讯在液冷技术领域有着丰富的技术积累和应用。目前,公司主攻冷板式液冷,已完成单板级、插箱级、机柜级、机房级四个不同维度的液冷技术突破。

  在近期召开的2022数据中心工程标准化建设年度论坛上,中兴通讯将自身在液冷技术方面的实践进行了商业化的方案包装推向市场,一经推出便收获了“数据中心科技成果奖”。这意味着公司滨江基地清凉机房的场景,有望在千行百业得到复制。

  据公司的液冷技术白皮书介绍,中兴通讯本次推出的ICT液冷一体化解决方案,可实现DC液冷数据中心机房、IT液冷服务器设备、CT液冷路由交换设备的一体化集成开发、交付,有效实现节能降本。

  以公司建设的单机柜设计总功率密度20kW的数据中心为例,其中液冷散热比例70%,热管背板散热比例30%,水冷背板与冷板式液冷系统共用外部冷却水塔冷源,实测数据中心PUE值可小于1.15。指标数据完全满足国家级数据中心建设标准。

  实际上,为确保能给客户提供更节能、更可靠、更省钱和更快速的液冷数据中心建设方案。中兴通讯在方案的细节设计上,下了不少功夫。

  例如,系统层面,公司将液冷系统与ICT设备控制联动,通过AI实时调控运行参数保持最低运行能耗,并对系统进行全面监控,做出异常情况的提前预判、及时警告和处理。交付层面,公司则提供了产品及机房级的标准化和模块化设计,最大程度促进组件共用和控制优化,实现低成本、高效率的建设。

  此外,由于数据中心实际建设中,液冷系统主要解决IT设备CPU、GPU、内存等主要发热元件产生的热量(60%-80%),IT设备内剩余的发热量(20%-40%)仍需要通过空调系统解决。

  为适配不同的应用场景和客户需求,中兴通讯的方案中,还提供了间接蒸发冷却空调、氟泵双循环空调、高效冷冻水系统等多种数据中心新型高能效空调系统解决方案,满足西部枢纽节点PUE<1.2,东部枢纽节点PUE<1.25的需求。

  如今,“东数西算”战略工程、一体化政务大数据体系建设等需求不断,作为算力基础设施的数据中心规模将不断扩大。在国家“双碳”目标以及自上而下节能减排的要求下,散热方面优势明显的“液冷时代”即将到来,或有望给像中兴一样的行业玩家带来新的机会。

(责任编辑:喻容容 )

   【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。

看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

热门阅读

    和讯特稿

      推荐阅读

        【免责声明】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。