|
|
日前,施耐德电气在年度“创新峰会之算力未来数据中心高峰论坛”上,重磅推出最新的冷板式液冷CDU系统。
这一发布,不仅彰显了施耐德电气在制冷技术领域的不懈创新,同时也为构建风液兼容全栈制冷解决方案奠定了基础,从而助力客户全面应对智算时代数据中心所面临的散热挑战,确保不同规模和需求的数据中心均能获得量身定制的制冷方案。 当下,“ChatGPT”、“Sora”、“AIGC”等一系列热词的背后,是AI训练服务器集群化部署所带来的高功率密度挑战。 传统风冷对于较低机柜功率密度(20kW及以下)的小型AI集群是比较受欢迎的冷却方案。对于更高机柜功率密度的人工智能集群,液冷因其高效的散热性能,已经从数据中心建设和改造的“可选项”逐步发展为“必选项”。
据IDC预计,2023-2028年,中国液冷服务器市场年均复合增速将达到45.8%,2028年市场规模将达到102亿美元。
然而,数据中心全液冷解决方案不可能一蹴而就,在这一过程中,数据中心行业亟需完备的全栈制冷解决方案,综合考量性能、能耗、成本等多重因素,基于自身实际需求灵活选择各类制冷方式及架构,实现由风冷向液冷的平稳过渡。当下,“全栈视角下的风液兼容”正成为破局数据中心散热和能耗挑战的优解。
基于持续创新的冷却技术与在数据中心行业的丰富制冷实践,施耐德电气正式推出的冷板式液冷CDU系统,提供液-液(Liquid to Liquid)、液-气(Liquid to Air)等多种热交换方式,并提供支持机柜内安装、落地式安装等多种型号,覆盖温度控制、流量控制、压力控制、流体处理、热交换与隔离五大关键功能,为高密度AI集群获得更佳的制冷效果提供有效支持。 与传统风冷相比,冷板式液冷CDU系统将为用户带来芯片性能和可靠性提升、能效更高、占用空间更小、总体拥有成本更低、噪音更低等多项优势。
为更好地契合用户实际业务需求,施耐德电气可以在前期设计与实际部署中,结合存量、新建智算中心类型、机柜功率密度及应用场景,进行灵活定制,赋能打造更加高效、更具韧性、更高适应性与更具可持续性的智能算力基础设施。
在推进节能降耗的过程中,不同类型数据中心及多样化行业应用场景的需求及关注点各有侧重。冷板式液冷CDU系统的发布,将助力施耐德电气构建业界领先且完善的数据中心全栈制冷解决方案,进而实现制冷技术与客户业务需求的无缝对接与深度融合。
凭借长期深耕制冷领域所积累的丰富技术与项目经验,全栈制冷解决方案覆盖从传统风冷到液冷的全方位技术,提供从机柜级到行级、房间级、楼宇系统级制冷方案和产品组合,从室外环境到IT机房,从而为各种关键应用环境提供规划、设计、安装、管理到维护的制冷解决方案。
目前,施耐德电气已经与全球多家IT头部厂商达成合作,率先在北美落地多个定制化液冷解决方案。在位居全球领先水平、远超行业平均标准的机柜功率高密度场景下,施家通过与生态伙伴联合创新,不仅满足其高负载运行的严苛需求,更通过制冷解决方案的部署应用,显著提升智算中心的能效水平,为行业发展提供了有力的技术支撑和实践参考。
在持续汹涌的AI热潮下,算力产业发展迸发出无限可能,高密度人工智能集群不仅是解锁生产力的关键,更对制冷技术、可持续性等提出了全新要求。 身处算力产业蓄势腾飞的黄金窗口期,施耐德电气将持续加大研发投入,以先进的液冷技术帮助用户节能增效,应对数据中心“热”议挑战。基于数据中心全栈制冷解决方案的领先实力,为未来AIGC的全面普及与智能化应用提供坚实的数字底座。
施耐德电气 x 英伟达,推出首个智算中心参考设计
施耐德电气在今年第一季度宣布与英伟达建立合作伙伴关系,双方致力于携手优化数据中心基础设施,共同推进人工智能(AI)和数字孪生技术的创新变革。
日前,在2024年施耐德电气创新峰会之算力未来数据中心论坛上,施耐德电气重磅发布双方合作成果,推出面向智算中心的首个参考设计。
该设计专为部署英伟达高性能加速计算平台而量身打造,旨在为智算中心提供标准化的数据中心生态系统内的AI部署和运营基准。
同时,该参考设计也可以作为解决高密度机柜的通用智算中心解决方案。这一创新的参考设计不仅为构建未来就绪的解决方案奠定了坚实基础,也标志着智算中心行业将迈入高效部署和高效运营的新里程。
在“人工智能+”战略的引领下,数据中心产业正经历着一场意义深远的变革,智算中心作为这场变革的“中坚力量”,不仅推动着产业的发展,更引领着未来的发展趋势。
根据《算力基础设施高质量发展行动计划》的预测,到2025年,中国算力规模将有望超过300 EFLOPS(10万亿次浮点运算),智能算力的占比将达到35%以上。
面对迅猛增长的智能算力需求,部署高密度AI集群已成为行业发展的必然选择,而AI集群将对数据中心物理基础设施的设计和运营带来一系列颠覆性的挑战,包括:
日益攀升的供电容量需求压力 适应未来IT技术的高弹性机房设计 实现智能化运维的数字化平台 ......
制定标准化参考设计可以为应对这些挑战提供有据可依的“指导”,从而有助于确保运营商构建高效、可持续与可扩展的基础设施,满足未来发展需求。
施耐德电气此次发布的99号参考设计,覆盖了存量数据中心改造和新建智算中心的机电系统设计,聚焦设施供电、制冷、IT机房、全生命周期软件四个技术领域,为IT容量高达3770kW人工智能集群提供一套完整的参考设计框架,以满足不同应用场景的需求:
设施供电优化 为IT机房提供分布式冗余的配电系统,从而实现在市电容量一定的前提下,最大程度地提升算力,或者在算力一定的前提下,减少对市电供电容量的需求;
设施制冷优化 引入CDU冷板式制冷系统,结合近端风墙等技术,实现制冷方式由风冷向液冷的完美过渡,在提升芯片性能与可靠性的同时,也提升了制冷系统的效率,从而降低整体能耗;
存量改造&新建IT机房 针对液冷应用、高密度硬件配置,聚焦存量数据中心升级改造与新建智算中心的差异化应用场景,提供可行的参考设计,以实现高密AI集群的部署; 全生命周期软件 以先进的规划设计和运营工具,为企业布局决策提供依据,提高部署效率,并且实现数据中心可视化,降低运营风险,高效确保数据中心全生命周期的安全与可靠运行。
算力“奇点”将至,唯有成熟、清晰的指导路径,方能推进面向未来的智算中心建设,提供行稳致远的有力保障。
此次数据中心参考设计的发布,正是基于产业变革趋势及多元需求。施家坚信,经过严格验证的、成熟且有据可依的参考设计在智算中心全生命周期中发挥着至关重要的作用:
在项目前期,加速并简化规划流程,缩短建设方案的制定周期
在数据中心投入运营后,显著降低运维风险,进一步增强数据中心的可靠性
目前,施耐德电气已经在全球范围内与数据中心产业链上下游的合作伙伴与企业合作,推动定制化解决方案的大规模部署和应用,为有效确保配电系统、液冷系统和控制系统设计在高密集群下的调试与可靠运行提供坚实保障。
在AI加速下的数据中心变革浪潮中,施耐德电气将继续致力于持续赋能,为构建更加高效、更具韧性、更高适用性与更可持续性的智能算力基础设施提供助力,并联合产业生态伙伴共同探索、不断创新,共绘一个更高效、更可持续、更具变革性的数据中心产业未来蓝图。
重磅白皮书丨AIGC时代,智算中心的“冰与火之歌” 全球正在掀起一场关于AI算力的“竞赛”,越来越多的智算中心正在加速部署:截止2023年底,国内智算中心项目为128个;与此同时,2024年共有39个智算中心项目已投产。IDC也预计:到2026年,中国智能算力规模将进入每秒十万亿亿次浮点(ZFLOPS)级别,达到1271.4EFLOPS。 在智算中心“如火如荼”的部署之时,如何“制冷”却是建造与运维中不可绕开的难题:随着人工智能服务器集群所带来的高功率散热挑战迅速提升,传统风冷散热所能提供的制冷支持也愈发“捉襟见肘”,AI智算中心正在上演一场“冰与火之歌。”
综合考量性能、成本、应用场景,智算中心液冷架构该怎么选择?施耐德电气推出《智算中心液冷架构探讨》白皮书,为你挑选更适合的智算中心液冷架构提供“解题思路”。
Part 01 分析题干·液冷架构的关键要素是?
当我们谈到“液冷架构”,我们往往在谈什么?其关键要素又是什么?AI 服务器的液冷方式主要有冷板式液冷和浸没式液冷,虽然二者在生态系统上有些微差异,但却有着共通的三大要素—— 服务器内部的热捕捉 服务器内的热捕获简单来说就是通过冷却液把热量从IT组件上“抽出来”,虽然“热捕获”这一要素是液冷架构的重要组成部分,但后两个要素才是真正考察的“重难点”。
Part 02 拆解考点·“种草”的CDU如何选?
考点一:冷却分配单元(CDU)—— 掌握给IT系统分配制冷量的“大权”,就像“智能空调管家”。但想挑选一名合适的“管家”并不简单,除了温度控制、流量控制、压力控制、流体处理、热交换和隔离这五大基本功能,CDU还有众多其他具体属性,细看下来实在让人焦头烂额!
此时我们可以用到“控制变量法”,通过确定两大CDU的关键属性以简化决策流程,实现“公式活用”。
01 热交换类型: 液体-空气(L2A):“捉住”IT组件中的热量后,直接排放到数据中心的空气中 液体-液体(L2L):“捉住”IT组件中的热量后,排放到设施内的水系统“改造” 除了这两种主流的热交换类型,还有制冷剂-空气(R2A)、制冷剂-液体(R2L)、液体-制冷剂(L2R)、制冷剂-制冷剂(R2R)等共计6种热交换类型。 02 CDU的容量和尺寸外形 机柜内安装式:顾名思义,将CDU安装在机柜内并为单个机柜提供制冷;通常分为20-40kW和40-80kW两种容量。 落地式:类似“中央空调”为多个机柜提供制冷,通常与液冷IT机柜相邻;根据热交换类型的不同,其功率可达约60 kW或从300 kW到1MW以上不等。
Part 03 拆解考点·把热量排出去总共分几步?
考点二:将热量排至室外—— 在“热量大扫除”后,收集到的余热该如何处理?在家中,扫出来的垃圾可以直接扔进垃圾桶,但对于精巧的数据中心而言,将热量排至室外可就没那么简单了。常见的“解题思路”有3种—— 液-气热交换:将热量直排IT机房的空气中(闭环式局部散热) 液-液热交换:热量排到设施系统现有回路的水中进行循环降温 设计专用散热系统:为智算中心的液冷系统设计建设独立散热系统
虽然看起来这三种热量排放方式效率不同,但其实它们各有所长,需要根据不同的数据中心液冷改造环境综合考虑才能更好地“发散余热”。
Part 04 分步求解·举一反三部署液冷“尖子生”
智算中心的液冷架构实际部署不能仅仅考虑数据计算,还需要统筹考虑现有制冷基础设施兼容性、部署规模、部署速度、能效等实际要素,举一反三才能为这道“应用题”给出“满分答卷”。
正因如此,在梳理清晰“CDU类型”和“将热量排放到室外”这两大考点之后,施家通过排列组合给出了智算中心液冷架构业内常见“例题”的“分步求解思路”。
01 先选散热方法: 又是“液-气热交换”、又是“液-液热交换”、又是新建散热系统,到底什么散热方法适合我?万变不离其宗,遵循自身对于改造规模、成本和效率的综合需求即可“对号入座”——
例如,如果现有机房规模较小或需要快速部署液冷架构,则可以选择基于现有散热系统的空气直排方式;如果需要部署大规模液冷服务器,则需要根据是否拥有冷机、成本如何等要素再考虑是否新建专用散热系统。 02 再挑CDU的容量和外形尺寸: CDU的选择更加简单,总结起来便是3个关键词:“看速度”“看空间”“看规模”——机柜部署需求较少或需要更高部署速度时,机柜内安装式CDU更佳;IT机柜内空间相对不足或部署数量需求较大,则落地式CDU更是“明智之选”。
兵马未动,粮草先行—— 人工智能算力竞争进入白热化,配套的制冷、管理、可持续性等“后备”力量至关重要。凭借在数据中心制冷领域多年的经验与创新的解决方案,施家有信心并致力于为伙伴提供更加高效、绿色、前瞻性的服务,为AIGC时代的数字化基座提供更多先进力量。
关于我们 北京汉深流体技术有限公司是丹佛斯中国数据中心签约代理商。产品包括FD83全流量自锁球阀接头,UQD系列液冷快速接头、EHW194 EPDM液冷软管、电磁阀、压力和温度传感器及Manifold的生产和集成服务。在国家数字经济、东数西算、双碳、新基建战略的交汇点,公司聚焦组建高素质、经验丰富的液冷工程师团队,为客户提供卓越的工程设计和强大的客户服务。 公司产品涵盖:丹佛斯液冷流体连接器、EPDM软管、电磁阀、压力和温度传感器及Manifold。
|
|