We engineer tomorrow to build a better future.
Solutions to your liquid cooling challenges.
 
 
DANFOSS
数据中心液冷产品
  数据中心液冷产品
  FD83接头
  UQD快速接头
  UQDB盲插接头
  盲插浮动结构
  BMQC盲插接头
  MQD液冷接头
  MQD02液冷接头
  MQD03液冷接头
  MQD04液冷接头
  MQDB盲插接头
  Mini-QD光模块液冷接头
  EHW194 液冷软管
  EHW094 液冷软管
  DC394 液冷软管
  5400制冷剂接头
  不锈钢90度旋转接头
  Manifold 分水器
  液冷系统生产及集成

卓越成长 业绩突破
Performance Outstanding Award
2024奖项获得者

 
选型资料下载
  新闻通告
  成功案例
  行业动态
  资料下载
 
汉深公司仓库

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


   

 

最新报告:至2027年,绿色数据中心市场规模将增加约1470亿美元
原创 热管理行业观察 热管理行业观察 2023-11-24 22:33 发表于广东

近日,全球领先的技术研究和咨询公司 Technavio 发布了绿色数据中心市场趋势的最新预测报告。报告预计,2022 至 2027 年间,绿色数据中心市场规模将增加 1469.5亿美元,复合年增长率高达 24.63%。

图片图:Technavio 发布了题为《2023-2027 年全球绿色数据中心市场》的最新市场研究报告

Technavio 指出,“电力消耗和成本的增加是推动市场增长的关键因素。 数据中心的能耗非常高,并且随着对自动驾驶汽车、流媒体和 5G 等更强大应用需求的增加,数据中心的能耗可能呈指数级增长,它们需要大量电力来为不同的设备供电。”

 

数据中心能源需求居高不下

根据国际能源机构(IEA)和环保组织等不同来源的数据,全球数据中心的能耗在过去十年中大幅增加。2015 至 2021 年数据中心的年耗电量约为 200 太瓦时 (TWh),2022 年全球数据中心用电量为 240-340 TWh。自 2010 年以来,数据中心用电量约占全球用电量的 1-1.5%[2]。

图片图:2015年至2021年全球数据中心能源需求[3](数据来源:Statista)

 

AI服务器能源需求急剧增长

随着生成式人工智能的快速发展,例如备受欢迎的 ChatGPT ,导致对数据中心计算能力的需求剧增。人工智能应用程序读取大量数据,比传统软件消耗更多的电力。用于训练生成式 AI 模型的 GPU 功耗很大,也需要额外的冷却能源。

根据 De Vries 的说法,NVIDIA 在 2023 年交付的 100,000 台服务器将消耗 5.7 至 8.9 TWh 的电力,到 2027 年,这些服务器每年可能需要高达 134 TWh 的电力[4]。

行业专家预计,就宏观数据而言,到 2030 年,人工智能可能占全球电力需求的 3% 至 4%[5]。由于人工智能服务器的激增,数据中心的电力消耗已经在大幅增加,麦肯锡预测,到 2030 年,数据中心的用电量将增加一倍以上。

图片图:NVIDIA H100 人工智能 GPU 服务器集群

 

要应对数据中心的巨大能源需求挑战,需要采取多方面的措施,包括节能硬件、创新冷却解决方案、绿色能源以及更广泛的可持续发展策略。

 

采用更节能的芯片

采用节能芯片是提高数据中心能源效率的基石。节能芯片具有先进的架构和电源管理功能,在最大限度降低数据中心硬件功耗方面发挥着关键作用。这些芯片能够更有效地分配和利用硬件资源,从而提高每瓦特的性能。

例如,与前几代英特尔 Xeon 处理器相比,第四代 Xeon 在使用内置加速器时,目标工作负载的平均每瓦性能效率提高了 2.9 倍。2022 年,Nvidia 发布的 H100 GPU AI 芯片的能源效率几乎是上代产品 A100 的两倍。

 

采用更高效率的冷却技术

降低数据中心能源消耗的另一个有效举措是大范围采用更高效率的冷却方案,减少冷却能耗占比,其中的一个关键指标就是“电力使用效率”(PUE)。过去十年,尽管计算输出增加了 6 倍,存储容量增加了 25 倍,但 2006 年至 2018 年间,全球数据中心的能源使用量仅增加了 6%。这种显著的效率提升归功于 PUE 的降低。

 

图片图:Uptime Institute 对2007-2022年全球数据中心 PUE 的调查跟踪数据

 

Uptime Institute 的调查表明,2007 年至 2014 年,得益于老式数据中心广泛应用冷热空气隔离、优化冷却控制和提高送风温度等措施,PUE 得以迅速下降。2014 年后,由于空气冷却仍然占据数据中心冷却主导地位,PUE 的改善速度明显放缓。2020 年后,随着越来越多的液体冷却 (尤其是直接液体冷却DLC)的大规模部署,进入液冷时代的数据中心 PUE 将低于 1.3 。

以下几种主要的液体冷却技术不仅能提高数据中心的整体冷却效率,还能满足高功率密度芯片的冷却需求,并减少对耗电量大的空调系统的依赖,促进环境的可持续发展。

 

直接液体冷却(DLC)

直接液体冷却(DLC)是一种管理高性能计算组件所热量的变革性方法。在 DLC 系统中,液体冷却剂(通常是水或专用液体)被输送至直接与 CPU 和 GPU 等发热元件接触的冷板,热量传递至冷却剂。随后,被加热的液体从元件循环到热交换器,在那里热能会被耗散。与传统的空气冷却相比,这种方法提供了一种更有效的热管理手段,使数据中心能够适应更高的功率密度。

图片图:部分提供 DLC 液冷技术的公司

 

浸没式液体冷却

浸没式液体冷却代表着散热策略的突破性转变。在浸没式冷却中,服务器CPU/GPU和其他电子元件完全浸没在介电液体中,介电液体与所有发热元件直接接触,确保了均匀高效的热交换。然后,被加热的液体循环到外部热交换器,热能在那里被散发。

图片图:部分提供浸没式液冷技术的公司

 

喷雾液体冷却

喷雾液体冷却是管理高性能计算环境热负荷的一种先进技术。在喷雾系统中,介电液体冷却剂被精确控制成雾状,并喷射到处理器和显卡等服务器的发热部件上。雾状液体接触热表面后,能迅速、有针对性地吸收热量。随后,产生的蒸汽携带着热能被有效地带走。这种方法可以在最需要的地方进行局部热点增强冷却,优化整体效率。

目前,尽管数据中心喷雾液体冷却市场增长较为缓慢,但是广东合一新材料研究院有限公司以及阿尔西(AIRSYS)等企业正在积极推动其成为被广泛接受的解决方案。

 

参考:

https://www.technavio.com/report/green-data-center-market-industry-analysis

https://www.iea.org/energy-system/buildings/data-centres-and-data-transmission-networks#tracking

https://www.statista.com/statistics/186992/global-derived-electricity-consumption-in-data-centers-and-telecoms/

https://think.ing.com/articles/data-centres-continue-to-improve-energy-efficiency

https://www.spglobal.com/commodityinsights/en/market-insights/latest-news/electric-power/101623-power-of-ai-wild-predictions-of-power-demand-from-ai-put-industry-on-edge


 

推荐阅读:

1、英特尔停止了CPU热电冷却技术的开发
2、基于热虹吸的数据中心干式冷却方案赢得1.37亿美元订单
3、借鉴自然,马勒新型仿生结构电池冷板实现技术飞跃
4、TWI 新型扩散焊专利技术,助力铝散热器高质量焊接
5、冷板式液冷的泄漏检测与缓解对策
注:部分文章/素材转载仅作为行业分享交流,版权归原作者所有。如涉侵权,请联系我们及时处理。

?

 

 
北京汉深流体技术有限公司 Hansen Fluid
Danfoss Data center liquid cooling authorized distributor
丹佛斯签约中国经销商 ~ 液冷一站式连接解决方案供应商

地址:北京市朝阳区望京街10号望京SOHO塔1C座2115室 邮编:100102
电话:010-8428 2935 , 8428 3983
手机:13910962635
Http://www.hansenfluid.com

E-mail:sales@cnmec.biz
传真:010-8428 8762

京ICP备2023024665号
京公网安备 11010502019740

Since 2007 Strong Distribution & Powerful Partnerships