|
|
由于数据中心是支持 AI 生态系统的关键基础设施,因此需要创新的解决方案来应对可持续性挑战
正如施耐德电气欧洲安全电力高级副总裁 Marc Garner 所解释的那样,AI 已成为一股变革力量,改变了我们处理、分析和利用数据的方式。 “到 2027 年,人工智能市场预计将达到惊人的 4070 亿美元,这项技术将继续彻底改变众多行业,预计 2023 年至 2030 年的年增长率为 37.3%,”他告诉我们。 “由于生成式 AI (Gen AI) 的繁荣,AI 市场有可能进一步增长。97% 的企业主认为 ChatGPT 将通过简化通信、生成网站副本或翻译信息等用途使他们的组织受益,但采用率的激增无疑需要比以往更多的投资和基础设施来开发人工智能驱动的解决方案。 适应这个由 AI 驱动的新世界的需求会带来挑战。 “数据中心是支持 AI 生态系统的关键基础设施,”Garner 说。“尽管人工智能需要大量电力,但人工智能驱动的数据分析可以帮助数据中心更接近净零排放,并在应对可持续发展挑战方面发挥积极作用。” 在这里,Garner 探讨了支撑数据中心物理基础设施挑战的四个关键 AI 属性和趋势:电源、机架、冷却和软件管理。
Schneider重磅推出最新的冷板式液冷CDU系统。基于持续创新的冷却技术与在数据中心行业的丰富制冷实践,施耐德电气正式推出的冷板式液冷CDU系统,提供液-液(Liquid to Liquid)、液-气(Liquid to Air)等多种热交换方式,并提供支持机柜内安装、落地式安装等多种型号,覆盖温度控制、流量控制、压力控制、流体处理、热交换与隔离五大关键功能,为高密度AI集群获得更佳的制冷效果提供有效支持。
类比到AI领域,当下以大模型为代表的AI技术,正引发算力需求的指数级增长。毕马威报告显示,大模型训练带来的算力正以平均每年惊人的10倍速度增长。与此同时,则是“芯火”的越烧越旺,即能耗与散热的严峻挑战。数据显示,主流GPU的TDP热功耗已从250W迅速增加到1000W,单台设备功耗数千瓦已是常态,而AI训练服务器热功耗则直逼10千瓦大关。研究还表明,芯片运行靠近70℃-80℃时,温度每升高2℃设备性能就会降低约10%,超过55%的电子设备失效都因温度过高引起。 联想深耕服务器30余载,在优化服务器及数据中心能耗和散热方面积累了丰富的技术,正持续为绿色、低碳的算力发展和AI加速落地应用输出独特的“联想方案”。
在2024年Hotchips大会上,NVIDIA详细介绍了其最新的Blackwell一代AI加速器及相关网络硬件的技术细节。| Blackwell的引入标志着NVIDIA在AI计算领域的又一次重大突破,尤其是在数据中心领域。Blackwell一代GPU和NVLink 5.0互连技术展示了NVIDIA在AI计算领域的深厚技术积累和市场领导力。随着2024年年底至2025年初新产品的全面上市,NVIDIA将在数据中心AI计算领域占据更为重要的位置。这不仅有助于提升当前AI模型的计算效率,还为未来更复杂的AI应用奠定了基础。
在全球企业自2023年以来布局AI技术的狂热浪潮刺激之下,英伟达(NVDA.US)最强性能AI GPU服务器——GB200 AI GPU服务器的液冷技术解决方案供应商之一Vertiv (VRT.US)股价自2023年以来已暴涨超600%,2024年以来的涨幅已高达103%。在华尔街分析师们看来,在AI芯片领域的绝对霸主英伟达大力推动之下,液冷在超高性能的AI服务器领域有望从“可选”迈入“必选”,意味着“液冷”解决方案在未来的市场规模无比庞大,而在股价预期方面, Vertiv等液冷领域领导者股价上行之路可能远未结束。
|
|