We engineer tomorrow to build a better future.
Solutions to your liquid cooling challenges.

 
 
Home | about us | liquid cooling | FD83 coupling | UQD Couplnig | Sensor | solenoid valve | EPDM hose| Hansen | contact | 中文
DANFOSS
Data center liquid cooling products
  Data center liquid cooling
  FD83 Coupling
  UQD Coupling
  UQDB couplings
  BMQC Blind Mate Valves
  NVQD02
  NVBQD02
  Royal EHW194 hose
  Emperor EHW094 hose
  5400 series refrigerant couplings
  Liquid cooling system integration
  Thermal Management Quick Disconnect Couplings
  Sensing solutions
Hose, tubing, fittings and connectors
 
Gromelle
Aeroquip
Quick Seal
 
Synflex
Winner
Boston
Weatherhead
 
Walterscheid
 
EverCool
 
Everflex
Energy storage
Thermal management products
Valve
Sensor
Downloads
  News and events
  Sucess
  Partners
  Catalogs

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


   

 

Direct-to-Chip Liquid Cooling for the AI Data Center
AI 数据中心的直接芯片液体冷却

加速计算、AI、ML 和高性能计算 (HPC) 需求正在飙升,推动了对液体冷却的需求。客户目前正面临开发新冷却策略以实现更高机架功率密度的重要决策,超大规模数据中心运营商正在考虑 100kW+ 机架。液体冷却有助于解决当前与空气冷却相关的性能、效率和空间利用率挑战。在单相或两相冷却技术之间,采用液体冷却与直接到芯片或浸入式冷却之间,有几个关键的权衡(包括整体性能、资本支出、运营支出、占地面积和水消耗)。由于加速计算是一个范围,需要根据用例(训练与推理)使用各种硬件,因此需要一种能够适应这些差异的冷却策略至关重要。安全性和可持续性,尤其是对于新流体,也是制定液体冷却策略时需要考虑的因素。Accelerated computing, AI, ML and high-performance computing (HPC) demand is skyrocketing, driving needs for liquid cooling. Customers are currently facing important decisions on developing new cooling strategies to enable higher rack power densities, with 100kW+ racks being considered by hyperscale data center operators. Liquid cooling helps solve the current challenges of performance, efficiency and space utilization associated with air cooling. Liquid cooling adoption has several key tradeoffs (including overall performance, capex, opex, floorspace, and water consumption) between single or two phase cooling technologies, and direct to chip or immersion. Since accelerated computing is a spectrum, requiring a variety of hardware depending upon use case (training vs inference), necessitating a cooling strategy that can accommodate these differences is critical. Safety and sustainability, particularly for new fluids, are also factors that need to be considered when developing a liquid cooling strategy.

 

What Is a Data Center?

A data center is a physical facility consisting of high-performance servers, storage systems, networking equipment, and other infrastructure. Used by organizations for storing, managing, and distributing data, data centers support the needs of large-scale applications as well as cloud computing, colocation, content delivery, and more. Today’s modern data centers make use of virtualization, automation, artificial intelligence (AI)/machine learning (ML), and other technologies to optimize availability, scalability, security, and efficiency.

 

What Are the Core Components of a Data Center?

The core components of a data center include:
Servers, which are the primary computing devices that process and manage data;
Storage devices, which are used to house large volumes of data;
Networking equipment, such as routers, switches, and other components that connect the various devices within the data center and enable them to communicate with each other; and
Cooling systems, including air conditioning, ventilation, and in some cases liquid cooling, that maintain optimal temperature and humidity levels within the facility to prevent overheating and equipment failure.
In addition to these components, data centers also require backup power sources, such as generators or uninterruptible power supplies (UPS), to ensure that operations continue without disruption in the event of a power outage.

据了解,摩根士丹利的分析师 Joseph Moore 在与包括首席执行官黄仁勋(Jensen Huang)在内的英伟达管理层会面后了解到,Blackwell GPU未来12个月的产能已经被预定一空。这意味着现在下订单的新买家必须等到明年年底才能收到货。
针对Blackwell的需求情况,黄仁勋上周公开表示,Blackwell的需求"疯狂"。"每个人都想拥有最多的芯片,每个人都想成为第一个拥有的。"黄仁勋表示。Blackwell芯片售价预计在3万至4万美元之间。
英伟达正在考虑对其下一代Blackwell B300 AI GPU采用插座式设计,这一改变将使用户能够自行更换用于AI和HPC应用的GPU。
2024 年全球 10 大云服务提供商 - Top 10 Cloud Service Providers Globally in 2024 . 2024 年全球排名前 10 位的云服务提供商包括亚马逊云服务(AWS)、微软Azure、谷歌云服务(GCP)、阿里云、甲骨文云、IBM云服务、腾讯云、OVHcloud、DigitalOcean 和 Linode(由 Akamai 拥有)。
Supermicro超微电脑近日宣布推出完整的液冷解决方案,包括强大的冷却液分配单元(CDU)、冷板、冷却液分配歧管(CDM)、冷却塔和端到端管理软件。该解决方案减少了持续的电力成本、初期硬件采购成本和数据中心冷却基础设施成本看,并透露其每季交付超过10万台用于人工智能的GPU。
Nvidia 的 GB200 系列需要直接对芯片进行液冷,机架功率密度高达 130kW。在性能上,GB200 相比 H100 推理性能提升了约 9 倍,训练性能提升约 3 倍。AI需求的驱动促使数据中心设计向适应高功率密度转变。例如,Meta拆除了一整栋在建建筑,因为这是他们多年来一直使用的低功率密度的旧数据中心设计。相反,他们用全新的 AI-Ready 设计取而代之。
施耐德电气Schneider Electric斥资约8.5亿美元收购高性能计算液冷技术公司Motivair的控股权,为快速增长的数据中心提供更多服务。
NVIDIA 正在将 Blackwell 一代视为公司历史上最成功的产品,主要是因为据说现在的需求已经飙升到前所未有的水平。凭借 Blackwell 带来的功能和计算能力,该架构已成功吸引了 Microsoft、Meta、Oracle 和 OpenAI 等主要市场参与者的注意,现在,摩根士丹利(通过巴伦) 声称 Team Green 已经售罄了进入 2025 年的 Blackwell 产品的供应,造成了巨大的供需瓶颈
NVIDIA Blackwell GB200 AI服务器出货量激增,微软成最大买家。 NVIDIA的Blackwell GB200 AI服务器预计在2024年第四季度将有巨大的出货量,其中微软成为这些新AI服务器最积极的买家。
Nvidia Blackwell平台的的几款机架解决方案: 最近几周,微软、谷歌以及Meta相继展示了基于Nvidia Blackwell平台的机架解决方案,我们来看一下这几款机架解决方案。
Nvidia Blackwell系列或于202404推出,有望带来机柜、铜缆、波冷、HBM四个市场的价俏量提升。Blackwell系列:GB200计算能力远超H100,CSP厂商资本开支提升B200集成2080亿个晶体管,采用台积电N4P制程,为双芯片架构,192GBHBM3E,AI算力达20DaFLOPS(FP4),是Hopper的5倍。GB200机架提供4种不同主要外形尺寸,每种尺寸均可定制。与H100相比,GB200 NVL72将训练速度(如 1.8T参数 GPT-MOE)提高了 30 倍。互联网资本开支方面,Meta、Alphabet(谷歌)、微软、亚马逊等厂商均增加2024年资本开支指引。微软预计FY2501资本支出将环比增加,及2025财年资本支出将高于24财年;谷歌表示2024年季度资本开支将等于或高于一季度水平;Meta将2024年资本支出预测提高至370-400亿美元,亚马逊表示2024年下半年的资本投资将更高。
2024年OCP全球峰会于10月15日至17日在加利福尼亚州圣何塞举行,主题为“From Ideas to Impact”。此次峰会汇聚了全球领先的技术公司和行业专家,展示了在开放计算项目推动下数据中心硬件、AI基础设施和高效能计算领域的最新创新成果。
10月29日消息,YouTube视频博主 ServeTheHome 首次曝光了埃隆·马斯克 (Elon Musk)旗下人工智能企业xAI的Colossus AI 超级计算机集群,其集成了100000个英伟达(NVIDIA)H100 GPU,号称是目前全球最强大的AI超级计算机集群。
作为美国科技七巨头之一的Meta在构建AI集群上一直以来都很努力。除了大家熟知的Meta 大模型 Llama Meta外,随着AI火热加剧,Meta也在推动基础设施的发展,以支持它不断发展的人工智能工作负载。在今年的OCP 全球峰会上,Meta推出了一系列的开放式 AI创新 硬件,包括:Catalina,专为 AI 工作负载设计的全新高性能机架;Grand Teton 的扩展,尖端 AI 平台;以及新的高性能网络解决方案。
OCP全球峰会于10月15日至17日在加州圣何塞举行了2024年全球峰会。此次峰会连续三年创下新纪录,共有7047人参加,比2023年增加了60%,是迄今为止规模最大的一次。NVIDIA GB200 NVL72架构及其基础设施解决方案的统治地位验了AI进一步巩固了其作为OCP峰会上最大应用地位的事实。
算力中心发展经历了三个阶段:在2000-2010年间,数据中心由三大通信运营商为主导;2010-2020年间,随着数据中心需要更多专业技术能力加持,开始有第三方数据中心服务商加入;到现在的智算中心时代,数据中心主体开始呈现百花齐放的发展态势,但同时也面临寻找正确的发展路径命题。从2022年末ChatGPT发布至今,AI大模型的模型参数及技术架构持续演进,由此对智能算力的需求也在飙升,相关基础设施产业链都在面临新的变化。
过去很长一段时间,整个机柜都在3千瓦到6千瓦之间运行,现在为了提升AI算力,需要在狭小的空间部署大量的GPU,这使机柜的功率密度迅速提升到10千瓦、20千瓦、30千瓦、40千瓦,甚至我们看到英伟达GB200解决方案已经飙升到132千瓦,而其正在研发的Rubin架构更是要突破惊人的200千瓦。这种功率密度远远超出传统数据中心的承载极限,对我们基础设施供应商的供电、制冷技术,以及解决方案的设计和部署能力提出了空前的挑战。
作为数据中心行业规模最大的高端会议,“2024数据中心标准大会”今年将于11月20-21日在北京·国家会议中心召开,大会现场将解读如何在AI时代的数据中心建设过程中斩妖除魔。其中,“智算中心液冷新动能”专场邀请液冷专家和用户集中讨论,如何帮助天命人度过散热难关。
全球AI的未来全靠台湾了。如今,最大的云端服务营运商—微软、亚马逊、Meta 和Alphabet旗下的Google—都委托台湾厂商完成他们的数据中心。 鸿海和广达这两家以组装iPhone和MacBook著称的公司,如今重点放在争取AI服务器订单。奇鋐、台达电和广达每年将营运费用的一半以上投入研发。他们也响应分散布局的期待,奇鋐最近就在越南设立新厂,预计一两年内投资总额将达到4.5亿美元。NVL72每台可能超过300万美元,迫使台达电和奇鋐等公司在电力分配和冷却的新功能上继续创新。
液体冷却成为 2024 年 OpenCompute 峰会的焦点,Liquid Cooling Takes Center Stage at OpenCompute Summit 2024。 OCP 全球峰会 本周在圣何塞开幕,不出所料,两个主题备受关注——人工智能计算和液体冷却。除了这两者之外,共封装光学器件(CPO)是今年峰会上另一个备受关注的话题。 至于液体冷却,市场采用主要是通过冷却剂分配单元 (CDU) 使用设施水,并在较小程度上使用浸入式冷却。然而,浸没式冷却今年在峰会上比往年更受关注。随着 CPU 和 GPU 功耗突破 500W TDP(热设计功率)门槛,液体冷却已成为必需品,500W TDP 是服务器和交换机中基于风扇冷却的通用界限。 此外,液体冷却的需求是由功耗驱动的,正如 《It's All About PUE》 中所述,其中电源使用效率 (PUE) 衡量数据中心的电源效率。 理想情况下,PUE 为 1.0,这意味着消耗的每一瓦特都为数据中心的服务器、存储和网络设备供电。读者可以参考这里发表的有关 PUE 的文章,例如 《Deepmind、DCIM 和数据中心冷却》 、 《DCIM 和 Deepmind》、《Take 2: AI to Control Google's Data Center Cooling 》、 《智能数据中心的以人为本的价值 》等。 在 电子冷却 中,我们广泛讨论了液体冷却主题。诸如 液体冷却研究的更新 、 数据中心的液体冷却系统帮助公司实现可持续发展目标 等文章都值得阅读。
英伟达黄仁勋急令!SK海力士提前交付HBM4,Rubin平台提前亮相!英伟达新AI芯片Rubin或提前半年亮相。Rubin架构:英伟达未来下一代的GPU架构。英伟达每年升级AI芯片产品,今年底最新出货的是Blackwell平台的B200与GB200芯片,2025年推出Blackwell Ultra芯片(B300或GB300),原订2026年推出下一代Rubin平台的R100芯片。
HGX B200液冷板方案的思考:NVIDIA为B200设定了两个TDP,1200W和1000W,前者定位液冷,后者定位风冷。此外,B100 还提供与之前的 H100 SXM 相同的 700W 范围,允许 OEM 制造商重复使用 700W 的风冷设计。当然,TDP 限制越高,时钟频率和启用的算术单元数量就越高,从而提高性能。事实上,FP4(Tensor 核)的性能对于 B200/1200W为20PFLOPS,对于B200/1000W 为 18PFLOPS,对于B100/700W 为14PFLOPS。
英伟达,最让人羡慕的地方莫过于“不受周期限制”,一直作为底层基建,持续“收税”,无论你做什么,都离不开它。作为 GPU 的缔造者,英伟达抓住了“PC 浪潮”的机遇,伴随着游戏市场的爆发,走进了千家万户; 接着,游戏业务疲软之际,加密牛市到来,英伟达显卡被广泛用于以太坊等加密货币“挖矿”,闷声发财; 随后,智能汽车产业崛起,它的车载芯片业务也迅速发展;最后,ChatGPT 横空出世,英伟达摇身一变,成为AI军火商……
从零到三万亿:NVIDIA的史诗崛起。 公司是全球 GPU 龙头,市场份额遥遥领先。英伟达(NVIDIA)是一家全球知名的技术公司,成立于 1993 年,最初以图形处理器(GPU)起家,通过不断的创新和发展,逐渐成为了高性能计算领域的领导者。根据 Jon Peddie Research 发布的 GPU 市场数据统计报告,英伟达 2022 年全年 PC GPU出货量高达 3034 万块,是 AMD 的近 4.5 倍;截至 2022 年四季度,在独立GPU 市场,英伟达占据 84%的市场份额,远超同业竞争公司。
Nvidia发展战略研究: NVIDIA作为加速计算领域的领导者,凭借其GPU架构在过去十年将计算速度提升100万倍,确立了不可撼动的技术优势。公司的核心竞争力体现在三个方面:首先是从芯片到系统、软件的全栈技术实力,形成了以GPU、CPU、DPU为核心的完整平台;其次是庞大的生态系统,拥有500万开发者和4万家企业用户,通过CUDA、AI Enterprise等软件平台持续扩大影响力;第三是在AI训练/推理、专业图形和游戏等关键市场的主导地位。这三大优势相互强化,构建了极高的竞争壁垒。
黄仁勋:后悔当年没听孙正义劝说,借钱买下英伟达所有股票 - 孙正义黄仁勋互曝往事:差点买下英伟达,错失两千亿美元。黄仁勋在日本开了NVIIDA AI Summit人工智能峰会的日本站,标准老黄式的主旨演讲后,和老朋友孙正义同台做了访谈。已经有短视频开始刷孙正义抱着黄仁勋痛哭做状的一幕 - 软银曾经是NVIDIA最大的股东啊,然后被孙正义抛售了。
Supermicro发布优化直液冷技术的NVIDIA Blackwell解决方案。在超算大会上,Supermicro, Inc.(NASDAQ: SMCI)作为一家专注于AI、云计算、存储和5G/边缘的全面IT解决方案提供商,推出了性能最强的SuperCluster。这是一种端到端的AI数据中心解决方案,基于NVIDIA Blackwell平台,专为万亿参数规模的生成式AI时代设计。新型SuperCluster显著增加了液冷机架内NVIDIA HGX B200 8-GPU系统的数量,与Supermicro现有基于NVIDIA HGX H100和H200的液冷SuperClusters相比,GPU计算密度大幅提升。此外,Supermicro正在扩展其NVIDIA Hopper系统产品组合,以满足加速计算在高性能计算(HPC)和主流企业AI中的快速应用。
据介绍,英伟达GB200 NVL4是一个全新的模块,是基于原有的GB200 Grace Blackwell Superchip AI解决方案的更大扩展。GB200 NVL4模块是在更大的主板上配置两个Blackwell GB200 GPU,即拥有两个Grace CPU和4个Blackwell B200 GPU。该模块被设计为具有4-GPU NVLINK域和1.3T相干内存的单服务器解决方案。在性能方面,该模块将使模拟性能提高2.2倍,训练和推理性能提高1.8倍。英伟达的合作伙伴将在未来几个月内提供NVL4解决方案。
NVIDIA H100 与 H200 GPU 比较:两款 GPU 性能评估。 NVIDIA 的 H200 GPU在 AI 社区引起了极大的轰动,它提供了显著更高的内存容量——大约是其前身 H100 的两倍。这些 GPU 共享强大的Hopper 架构,专为高效管理广泛的 AI 和 HPC 任务而量身定制。NVIDIA H100 是 NVIDIA 迄今为止功能最强大、可编程的 GPU,具有多项架构增强功能,例如与其前代产品 A100 相比具有更高的 GPU 核心频率和更强大的计算能力。
一文搞懂H100/H200,B100/B200,B200/GB200,HGX/DGX的区别和参数。 B200和B100都是基于英伟达最新一代Blackwell架构的数据中心GPU,英伟达目前的市场策略是以B200为主,从整体参数上,两者除了显存的规格一致,其他的不同精度的算力、功率有所不同,具体可以见下图,供参考,可以看到B100的TDP是700W,有传言说是为了兼容现有H100的服务器平台(机头)做的设计,但是从综合性能上B200更优,比如FP16算力是H100的2倍以上,同时TDP也提升到了单卡1000W,所以B200的服务器平台需重新设计,与H100的不兼容了。
英伟达芯片产能爆发,全球AI供应链迎来黄金时代。 Blackwell B200芯片在2024年第四季度的产量约为30万台,预计2025年第一季度将增长至80万台,环比激增1.67倍。与此同时,部分云服务供应商已经开始测试Blackwell系列的下一代产品——B300芯片。与B200相比,B300芯片在多项技术指标上实现了突破,比如引入了超级电容和备用电池的创新设计,从根本上解决了芯片运行中的电源稳定性问题。

 

 

 

Beijing Hansen Fluid Technology Co., Ltd. - 北京汉深流体技术有限公司
Danfoss Data center liquid cooling authorized distributor

Add:Rm2115, Tower C, Wangjing SOHO, Chaoyang district Beijing , China
PO100102
Phone:010-8428 2935 , 8428 3983 , 13910962635
15801532751,17310484595 ,13910122694
13011089770,15313809303
Http://www.hansenfluid.com
E-mail:sales@cnmec.biz

传真:010-8428 8762

京ICP备2023024665号
京公网安备 11010502019740

Since 2007 Strong Distribution & Powerful Partnerships