|
|
在全球企业自2023年以来布局AI技术的狂热浪潮刺激之下,英伟达(NVDA.US)最强性能AI GPU服务器——GB200 AI GPU服务器的液冷技术解决方案供应商之一Vertiv (VRT.US)股价自2023年以来已暴涨超600%,2024年以来的涨幅已高达103%。在华尔街分析师们看来,在AI芯片领域的绝对霸主英伟达大力推动之下,液冷在超高性能的AI服务器领域有望从“可选”迈入“必选”,意味着“液冷”解决方案在未来的市场规模无比庞大,而在股价预期方面, Vertiv等液冷领域领导者股价上行之路可能远未结束。 而在最新的业绩以及业绩预期方面,Vertiv也交出了一份令市场非常满意的业绩,暗示全球AI数据中心对于液冷技术的需求激增,同时也从侧面显示出全球企业对于英伟达AI GPU的需求仍然极度旺盛。前不久英伟达GB200液冷解决方案供应商Vertiv业绩显示,该公司第一季度总订单同比增长60%,期末积压订单金额高达63亿美元,一举创下历史新高。Q1净销售额16.39亿美元,同比增长8%,调整后营业利润高达2.49亿美元,同比增长42%。 不仅第一季度订单和销售额强劲,Vertiv还以超市场预期的步伐上调2024年全年业绩预期,销售额中值显示有望在强劲的2023年销售额基础上同比增长约12%,调整后营业利润13.25亿至13.75亿美元,预期中值较强劲的2023年全年增长约28%。 在中国A股,液冷技术领域领导者英维克(002837.SZ)也交出了一份无比强劲的第一季度业绩报告。报告期内,英维克实现营业收入7.46亿元,同比增长41.36%。归属于上市公司股东的净利润6197.52万元,同比增长146.93%。归属于上市公司股东的扣除非经常性损益的净利润5430.77万元,同比增长169.65%。 展望液冷未来前景,从2024年起,液冷解决方案的渗透规模有望进入“爆发式增长”模式。据Dell'Oro Group 2024年2月的预期测算数据,该机构预计2028年数据中心热管理市场规模(风冷+液冷)将达120亿美元,预计届时液冷规模将达35亿美元,占热管理总计支出的近1/3,对比目前占比仅不到1/10。 国际知名研究机构IDC近日发布报告称,中国的液冷服务器市场在2023年继续保持快速增长。2023全年中国液冷服务器市场规模达到15.5亿美元,与2022年相比增长52.6%,其中95%以上均采用冷板式液冷解决方案。IDC预计,2023-2028年,中国液冷服务器市场年复合增速将达到45.8%, 2028年市场规模有望达到102亿美元。 液冷——逐渐从AI服务器散热模块的“可选项”踏入“必选项” 目前,全球采用英伟达H100 AI GPU的AI服务器在散热解决方案选择上呈现多样化,但风冷仍然是主流选择。尽管液冷因其在高性能计算中的优势(如更有效的热管理和能效)正在逐渐普及,但液冷服务器的部署并未完全普及到所有使用英伟达H100 GPU的系统中。 在英伟达全新的Blackwell 架构GPU(即B100\B200\GB200 AI GPU )时代,由于AI GPU性能激增,从理论技术层面的角度来看,风冷散热规模几乎达到风冷能力极限,液冷散热时代拉开序幕。随着在AI服务器领域液冷从“可选”到“必选”,将大幅提升市场空间,成为AI算力领域的重要细分赛道之一。整体来看,液冷不仅保证AI GPU服务器在最佳性能下高效率24小时无间断运行,还有助于延长硬件使用寿命。 英伟达GB200超算服务器性能则可谓“全球独一档”算力系统的存在。英伟达基于两个B200 AI GPU以及自研Grace CPU所打造的AI超算系统GB200,基于大语言模型(LLM)的推理工作负载性能则瞬间能够提升30倍,同时与上一代 Hopper架构相比,GB200成本和能耗大幅度降低约25倍。在具有1750亿参数级别的GPT-3 LLM基准上,GB200的推理性能是H100系统的7倍,并且提供了4倍于H100系统的训练速度。 如此强大的性能提升,意味着风冷散热模块已不足以支撑算力系统正常散热运作,这也是英伟达选择在9月份量产的GB200 AI GPU服务器大规模采用液冷解决方案的重要因素。 随着AI和机器学习算法变得越来越复杂,相应的AI算力需求也在快速增长。特别是在训练AI大模型或进行大规模AI推理进程时,AI服务器需要高性能GPU来处理这些计算密集型任务。这些高性能AI GPU(如英伟达的GB200)在运行时会产生大量热量,需要有效的散热解决方案以维持运行效率和硬件寿命。液冷系统可以更迅速、更有效地将热量从GPU等热源传输到散热器,从而减少了热积聚可能性,使得晶体管出现烧损的可能性大幅降低,保持GPU长期以高性能运作。 从技术路线而言,业内主流观点认为,冷板式间接液冷有望先于直接液冷获得全面渗透与推广。液冷系统可以根据液体与硬件之间的接触方式分为直接液冷和间接液冷,直接冷却包括浸没式和喷淋式,间接液冷主要是冷板式液冷解决方案。冷板式液冷技术工艺成熟,不需改变现有服务器的形态,加工难度低,成本较低,且冷却功耗可以满足AI服务器需求,有望率先获得推广。 知名机构Markets And Markets研究报告显示,预计全球数据中心液体冷却市场将从2023年的26亿美元增长到2028年的至少78亿美元,在预测期内的复合年增长率为24.4%。Markets And Markets表示,由于人工智能服务器、边缘计算和物联网(oT)等设备的发展,需要紧凑而有效的冷却解决方案,液冷优点则是能够通过冷却小型设备和小型服务器,有效地处理具有挑战性的情况下的大批量数据。总体而言,现代数据中心处理天量级别数据的强劲需求之下,数据中心液冷市场主要受到提高冷却效率、节能、可扩展性、可持续性和更高性能GPU等硬件要求的驱动。 华尔街分析师们普遍乐观地认为,全球企业对人工智能技术的庞大投资规模将支持数据中心的容量规模不断扩张。这对Vertiv来说可谓是一大利好,该公司的大部分营收规模来自数据中心电力管理和数据中心使用的IT液冷以及混合冷却系统等产品的销售额,该公司主营业务集中于为全球范围的数据中心提供电源管理和各类冷却技术。 Vertiv当前则致力于开发AI数据中心先进液冷解决方案,有公开资料显示,Vertiv和AI芯片霸主英伟达(NVDA.US)合作开发的下一代NVIDIA AI GPU加速数据中心先进液冷解决方案有望适用于GB200,Vertiv 的高能量密度电源和冷却解决方案旨在支持英伟达下一代 GPU 以最佳性能和高可用性安全地运行计算最密集的 AI 工作负载。 机构汇编的数据显示,华尔街分析师们对Vertiv给出了8个“买入”评级,1个“持有”评级,没有出现“卖出”评级,共识评级为“强力买入”,最乐观目标价高达102美元(周四收于97.940美元这一历史高位)。来自Oppenheimer & Co.的分析师诺亚?凯伊(Noah Kaye)强调“人工智能大趋势”正在扩大AI数据中心容量的潜在市场,并且预计到2026年,仅仅Vertiv高密度计算市场就将达到250亿美元。 这家来自中国的液冷技术领导者获华尔街大行高盛青睐 华尔街大行高盛认为,人工智能这一全球股票市场的“股票动力燃料”远未耗尽。该机构在近期发布的最新预测报告中表示,全球股市目前仅仅处于人工智能引领的投资热潮的第一阶段,这股热潮将继续扩大至第二、第三以及第四阶段,提振全球范围内越来越多的行业。 “如果说英伟达代表了人工智能股票交易热潮的第一阶段——即最直接受益的AI芯片阶段,那么第二阶段将是全球其他公司帮助建立与人工智能相关的基础设施。”该机构写道。“预计第三阶段是将人工智能纳入其产品以增加营收规模的公司,而第四阶段是与人工智能相关的生产效率全面提高,而这一预期能够在全球许多企业中实现。” 在人工智能投资热潮的第二阶段,聚焦于除英伟达之外其他参与AI基础设施建设的公司,包括阿斯麦、应用材料等半导体设备商、芯片制造商、云服务提供商、数据中心REITs、数据中心硬件和设备公司、软件安全股以及公用事业公司。而在这一阶段,高盛在研究报告中专门提到了一家中国上市公司,即专注于服务器、数据中心和能源存储系统的精密液体冷却技术的英维克(Shenzhen Envicool)。
知名机构IDC预计,2023-2028年,中国液冷服务器市场年复合增长率将达到45.8%,2028年市场规模将达到102亿美元。IDC数据显示,基于行业需求和政策推动,2023年中国液冷服务器市场规模进一步加大,并且参与液冷生态体系的合作伙伴也越来越丰富,表明市场对于数据中心液冷解决方案的态度是非常积极。随着中国人工智能企业和组织对智算中心无论是建设要求还是算力供给需求越来越高,导致此类数据中心的IT设备能耗大幅上升,更加需要高效的液体冷却系统来维持适宜的操作温度,否则将对大模型产品的周期管理和运维难度产生巨大挑战。 液冷技术风靡全球,暗示英伟达AI GPU需求无比强劲 Vertiv以及英维克等液冷领域领导者纷纷交出无比强劲的业绩数据,以及分析师们对于Vertiv的看涨预期升温,暗示全球数据中心,尤其是AI数据中心对于液冷散热解决技术的需求呈激增之势,同时也从侧面显示出全球企业对于英伟达基于Hopper架构以及最新发布的Blackwell 架构的AI GPU需求极度旺盛。 高盛预计,微软、谷歌、亚马逊旗下AWS、Facebook母公司Meta这四家大型科技公司今年在云计算方面的资本投入高达1770亿美元,远远高于去年的1190亿美元,而2025年将继续增至惊人的1950亿美元。
据媒体报道,微软与OpenAI正在就耗资高达1000亿美元的超大型全球数据中心项目规划进行细节层面的谈判,该项目将包含一台暂时命名为“星际之门”(Stargate)的AI超级计算机,这将是两家AI领域的领导者计划在未来六年内建立的一系列AI超算基础设施中最大规模的超算设施。 毋庸置疑的是,这个巨无霸级别的AI超算将配备“数以百万计算”的核心硬件——英伟达不断升级的AI GPU,旨在为OpenAI未来更为强大的GPT大模型以及比ChatGPT和Sora文生视频等更具颠覆性的AI应用提供强大算力。 虽然随着供应瓶颈逐渐消除,AI GPU这一核心硬件需求增量可能趋于稳定,但是底层硬件的市场仍将不断扩张,英伟达旗下高性能AI GPU的供不应求之势可能在未来几年难以彻底缓解。这也是高盛等华尔街大行看好英伟达未来一年冲击1100美元大关的重要逻辑(周四英伟达收于887.47美元)。 尤其是AI大模型以及AI软件不得不面临的技术情景——即更新迭代趋势的刺激之下软件开发端势必将不断采购或升级AI GPU系统,因此未来几年AI硬件市场规模仍然显得无比庞大。根据市场研究机构Gartner最新预测,到2024年AI芯片市场规模将较上一年增长 25.6%,达到671亿美元,预计到2027年,AI芯片市场规模预计将是2023年规模的两倍以上,达到1194亿美元。
英伟达液冷技术 人工智能芯片制造商英伟达(Nvidia)正通过一种与液体相关的创新应对其最新一代GB200服务器架中的高性能计算需求。这些服务器主要通过在硬件中循环的液体进行冷却,而非传统的空气冷却。英伟达还与供应商合作开发其他冷却技术,包括将整个计算机浸入不导电液体中以吸收和散热。 随着全球数据中心对电力的需求不断增加,冷却问题变得日益重要。预计到2030年,数据中心将消耗美国8%的电力,显著高于目前的3%。英伟达的GB200系列服务器预计将受到热捧,因为科技公司正竞相部署人工智能在内容创作和自动驾驶等领域的应用。 尽管英伟达声称今年下半年会增加产量,但由于冷却系统问题,其GB200服务器的生产时间表略有推迟。台积电的富士康目前主导GB200系列的生产,尽管在前期生产测试中出现了一些问题,但这些问题预计不会对出货时间造成重大影响。 液体冷却系统虽然成本高昂,但能显著降低能耗并提高计算能力。然而,由于一些关键部件的短缺,这一领域仍面临挑战。业内专家认为,液体冷却将成为高端人工智能应用的必然选择。
美国科技专业网站 wccftech 长文披露英伟达 blackwell 算力芯片和服务器进展,包括英伟达在即将到来的 hot chips 的演示流程介绍。 一、其中重磅的流程是英伟达 blackwell 的液冷会采用直接芯片液冷(DLC),并配了英伟达内部的演示片的一张:英伟达首个即将对外展示 blackwell 机房的一张图片,满地的蓝色液冷管路 铺满整个机房。
二、液冷管路分三部分 1、机柜内部液冷管路 2、机柜到外部的连接液冷管路 3、机房内液冷管路
三、英伟达直接芯片液冷方案将完全覆盖 GB200、GRACE BLACKWELL GB200、B200 芯片方案,能耗下降达到 28%,并明确会在 hot chip 作为重点环节演示!
版权声明: 我们尊重原创,也乐于分享。内容及图片素材来源于网络,若涉及版权问题,敬请第一时间联系我司进行删除处理,谢谢!
关于我们 北京汉深流体技术有限公司是丹佛斯中国数据中心签约代理商。产品包括FD83全流量自锁球阀接头,UQD系列液冷快速接头、EHW194 EPDM液冷软管、电磁阀、压力和温度传感器及Manifold的生产和集成服务。在国家数字经济、东数西算、双碳、新基建战略的交汇点,公司聚焦组建高素质、经验丰富的液冷工程师团队,为客户提供卓越的工程设计和强大的客户服务。 公司产品涵盖:丹佛斯液冷流体连接器、EPDM软管、电磁阀、压力和温度传感器及Manifold。
|
|