We engineer tomorrow to build a better future.
Solutions to your liquid cooling challenges.

 
 
Home | about us | liquid cooling | FD83 coupling | UQD Couplnig | Sensor | solenoid valve | EPDM hose| Hansen | contact | 中文
DANFOSS
Data center liquid cooling products
  Data center liquid cooling
  FD83 Coupling
  UQD Coupling
  UQDB couplings
  BMQC Blind Mate Valves
  NVQD02
  NVBQD02
  Royal EHW194 hose
  Emperor EHW094 hose
  5400 series refrigerant couplings
  Liquid cooling system integration
  Thermal Management Quick Disconnect Couplings
  Sensing solutions
Hose, tubing, fittings and connectors
 
Gromelle
Aeroquip
Quick Seal
 
Synflex
Winner
Boston
Weatherhead
 
Walterscheid
 
EverCool
 
Everflex
Energy storage
Thermal management products
Valve
Sensor
Downloads
  News and events
  Sucess
  Partners
  Catalogs

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


   

 

Direct-to-Chip Liquid Cooling for the AI Data Center
AI 数据中心的直接芯片液体冷却

加速计算、AI、ML 和高性能计算 (HPC) 需求正在飙升,推动了对液体冷却的需求。客户目前正面临开发新冷却策略以实现更高机架功率密度的重要决策,超大规模数据中心运营商正在考虑 100kW+ 机架。液体冷却有助于解决当前与空气冷却相关的性能、效率和空间利用率挑战。在单相或两相冷却技术之间,采用液体冷却与直接到芯片或浸入式冷却之间,有几个关键的权衡(包括整体性能、资本支出、运营支出、占地面积和水消耗)。由于加速计算是一个范围,需要根据用例(训练与推理)使用各种硬件,因此需要一种能够适应这些差异的冷却策略至关重要。安全性和可持续性,尤其是对于新流体,也是制定液体冷却策略时需要考虑的因素。Accelerated computing, AI, ML and high-performance computing (HPC) demand is skyrocketing, driving needs for liquid cooling. Customers are currently facing important decisions on developing new cooling strategies to enable higher rack power densities, with 100kW+ racks being considered by hyperscale data center operators. Liquid cooling helps solve the current challenges of performance, efficiency and space utilization associated with air cooling. Liquid cooling adoption has several key tradeoffs (including overall performance, capex, opex, floorspace, and water consumption) between single or two phase cooling technologies, and direct to chip or immersion. Since accelerated computing is a spectrum, requiring a variety of hardware depending upon use case (training vs inference), necessitating a cooling strategy that can accommodate these differences is critical. Safety and sustainability, particularly for new fluids, are also factors that need to be considered when developing a liquid cooling strategy.

 

What Is a Data Center?

A data center is a physical facility consisting of high-performance servers, storage systems, networking equipment, and other infrastructure. Used by organizations for storing, managing, and distributing data, data centers support the needs of large-scale applications as well as cloud computing, colocation, content delivery, and more. Today’s modern data centers make use of virtualization, automation, artificial intelligence (AI)/machine learning (ML), and other technologies to optimize availability, scalability, security, and efficiency.

 

What Are the Core Components of a Data Center?

The core components of a data center include:
Servers, which are the primary computing devices that process and manage data;
Storage devices, which are used to house large volumes of data;
Networking equipment, such as routers, switches, and other components that connect the various devices within the data center and enable them to communicate with each other; and
Cooling systems, including air conditioning, ventilation, and in some cases liquid cooling, that maintain optimal temperature and humidity levels within the facility to prevent overheating and equipment failure.
In addition to these components, data centers also require backup power sources, such as generators or uninterruptible power supplies (UPS), to ensure that operations continue without disruption in the event of a power outage.

据了解,摩根士丹利的分析师 Joseph Moore 在与包括首席执行官黄仁勋(Jensen Huang)在内的英伟达管理层会面后了解到,Blackwell GPU未来12个月的产能已经被预定一空。这意味着现在下订单的新买家必须等到明年年底才能收到货。
针对Blackwell的需求情况,黄仁勋上周公开表示,Blackwell的需求"疯狂"。"每个人都想拥有最多的芯片,每个人都想成为第一个拥有的。"黄仁勋表示。Blackwell芯片售价预计在3万至4万美元之间。
英伟达正在考虑对其下一代Blackwell B300 AI GPU采用插座式设计,这一改变将使用户能够自行更换用于AI和HPC应用的GPU。
2024 年全球 10 大云服务提供商 - Top 10 Cloud Service Providers Globally in 2024 . 2024 年全球排名前 10 位的云服务提供商包括亚马逊云服务(AWS)、微软Azure、谷歌云服务(GCP)、阿里云、甲骨文云、IBM云服务、腾讯云、OVHcloud、DigitalOcean 和 Linode(由 Akamai 拥有)。
Supermicro超微电脑近日宣布推出完整的液冷解决方案,包括强大的冷却液分配单元(CDU)、冷板、冷却液分配歧管(CDM)、冷却塔和端到端管理软件。该解决方案减少了持续的电力成本、初期硬件采购成本和数据中心冷却基础设施成本看,并透露其每季交付超过10万台用于人工智能的GPU。
Nvidia 的 GB200 系列需要直接对芯片进行液冷,机架功率密度高达 130kW。在性能上,GB200 相比 H100 推理性能提升了约 9 倍,训练性能提升约 3 倍。AI需求的驱动促使数据中心设计向适应高功率密度转变。例如,Meta拆除了一整栋在建建筑,因为这是他们多年来一直使用的低功率密度的旧数据中心设计。相反,他们用全新的 AI-Ready 设计取而代之。
施耐德电气Schneider Electric斥资约8.5亿美元收购高性能计算液冷技术公司Motivair的控股权,为快速增长的数据中心提供更多服务。
NVIDIA 正在将 Blackwell 一代视为公司历史上最成功的产品,主要是因为据说现在的需求已经飙升到前所未有的水平。凭借 Blackwell 带来的功能和计算能力,该架构已成功吸引了 Microsoft、Meta、Oracle 和 OpenAI 等主要市场参与者的注意,现在,摩根士丹利(通过巴伦) 声称 Team Green 已经售罄了进入 2025 年的 Blackwell 产品的供应,造成了巨大的供需瓶颈
NVIDIA Blackwell GB200 AI服务器出货量激增,微软成最大买家。 NVIDIA的Blackwell GB200 AI服务器预计在2024年第四季度将有巨大的出货量,其中微软成为这些新AI服务器最积极的买家。
Nvidia Blackwell平台的的几款机架解决方案: 最近几周,微软、谷歌以及Meta相继展示了基于Nvidia Blackwell平台的机架解决方案,我们来看一下这几款机架解决方案。
Nvidia Blackwell系列或于202404推出,有望带来机柜、铜缆、波冷、HBM四个市场的价俏量提升。Blackwell系列:GB200计算能力远超H100,CSP厂商资本开支提升B200集成2080亿个晶体管,采用台积电N4P制程,为双芯片架构,192GBHBM3E,AI算力达20DaFLOPS(FP4),是Hopper的5倍。GB200机架提供4种不同主要外形尺寸,每种尺寸均可定制。与H100相比,GB200 NVL72将训练速度(如 1.8T参数 GPT-MOE)提高了 30 倍。互联网资本开支方面,Meta、Alphabet(谷歌)、微软、亚马逊等厂商均增加2024年资本开支指引。微软预计FY2501资本支出将环比增加,及2025财年资本支出将高于24财年;谷歌表示2024年季度资本开支将等于或高于一季度水平;Meta将2024年资本支出预测提高至370-400亿美元,亚马逊表示2024年下半年的资本投资将更高。
2024年OCP全球峰会于10月15日至17日在加利福尼亚州圣何塞举行,主题为“From Ideas to Impact”。此次峰会汇聚了全球领先的技术公司和行业专家,展示了在开放计算项目推动下数据中心硬件、AI基础设施和高效能计算领域的最新创新成果。
10月29日消息,YouTube视频博主 ServeTheHome 首次曝光了埃隆·马斯克 (Elon Musk)旗下人工智能企业xAI的Colossus AI 超级计算机集群,其集成了100000个英伟达(NVIDIA)H100 GPU,号称是目前全球最强大的AI超级计算机集群。
作为美国科技七巨头之一的Meta在构建AI集群上一直以来都很努力。除了大家熟知的Meta 大模型 Llama Meta外,随着AI火热加剧,Meta也在推动基础设施的发展,以支持它不断发展的人工智能工作负载。在今年的OCP 全球峰会上,Meta推出了一系列的开放式 AI创新 硬件,包括:Catalina,专为 AI 工作负载设计的全新高性能机架;Grand Teton 的扩展,尖端 AI 平台;以及新的高性能网络解决方案。
OCP全球峰会于10月15日至17日在加州圣何塞举行了2024年全球峰会。此次峰会连续三年创下新纪录,共有7047人参加,比2023年增加了60%,是迄今为止规模最大的一次。NVIDIA GB200 NVL72架构及其基础设施解决方案的统治地位验了AI进一步巩固了其作为OCP峰会上最大应用地位的事实。
算力中心发展经历了三个阶段:在2000-2010年间,数据中心由三大通信运营商为主导;2010-2020年间,随着数据中心需要更多专业技术能力加持,开始有第三方数据中心服务商加入;到现在的智算中心时代,数据中心主体开始呈现百花齐放的发展态势,但同时也面临寻找正确的发展路径命题。从2022年末ChatGPT发布至今,AI大模型的模型参数及技术架构持续演进,由此对智能算力的需求也在飙升,相关基础设施产业链都在面临新的变化。
过去很长一段时间,整个机柜都在3千瓦到6千瓦之间运行,现在为了提升AI算力,需要在狭小的空间部署大量的GPU,这使机柜的功率密度迅速提升到10千瓦、20千瓦、30千瓦、40千瓦,甚至我们看到英伟达GB200解决方案已经飙升到132千瓦,而其正在研发的Rubin架构更是要突破惊人的200千瓦。这种功率密度远远超出传统数据中心的承载极限,对我们基础设施供应商的供电、制冷技术,以及解决方案的设计和部署能力提出了空前的挑战。
作为数据中心行业规模最大的高端会议,“2024数据中心标准大会”今年将于11月20-21日在北京·国家会议中心召开,大会现场将解读如何在AI时代的数据中心建设过程中斩妖除魔。其中,“智算中心液冷新动能”专场邀请液冷专家和用户集中讨论,如何帮助天命人度过散热难关。
全球AI的未来全靠台湾了。如今,最大的云端服务营运商—微软、亚马逊、Meta 和Alphabet旗下的Google—都委托台湾厂商完成他们的数据中心。 鸿海和广达这两家以组装iPhone和MacBook著称的公司,如今重点放在争取AI服务器订单。奇鋐、台达电和广达每年将营运费用的一半以上投入研发。他们也响应分散布局的期待,奇鋐最近就在越南设立新厂,预计一两年内投资总额将达到4.5亿美元。NVL72每台可能超过300万美元,迫使台达电和奇鋐等公司在电力分配和冷却的新功能上继续创新。
液体冷却成为 2024 年 OpenCompute 峰会的焦点,Liquid Cooling Takes Center Stage at OpenCompute Summit 2024。 OCP 全球峰会 本周在圣何塞开幕,不出所料,两个主题备受关注——人工智能计算和液体冷却。除了这两者之外,共封装光学器件(CPO)是今年峰会上另一个备受关注的话题。 至于液体冷却,市场采用主要是通过冷却剂分配单元 (CDU) 使用设施水,并在较小程度上使用浸入式冷却。然而,浸没式冷却今年在峰会上比往年更受关注。随着 CPU 和 GPU 功耗突破 500W TDP(热设计功率)门槛,液体冷却已成为必需品,500W TDP 是服务器和交换机中基于风扇冷却的通用界限。 此外,液体冷却的需求是由功耗驱动的,正如 《It's All About PUE》 中所述,其中电源使用效率 (PUE) 衡量数据中心的电源效率。 理想情况下,PUE 为 1.0,这意味着消耗的每一瓦特都为数据中心的服务器、存储和网络设备供电。读者可以参考这里发表的有关 PUE 的文章,例如 《Deepmind、DCIM 和数据中心冷却》 、 《DCIM 和 Deepmind》、《Take 2: AI to Control Google's Data Center Cooling 》、 《智能数据中心的以人为本的价值 》等。 在 电子冷却 中,我们广泛讨论了液体冷却主题。诸如 液体冷却研究的更新 、 数据中心的液体冷却系统帮助公司实现可持续发展目标 等文章都值得阅读。
英伟达黄仁勋急令!SK海力士提前交付HBM4,Rubin平台提前亮相!英伟达新AI芯片Rubin或提前半年亮相。Rubin架构:英伟达未来下一代的GPU架构。英伟达每年升级AI芯片产品,今年底最新出货的是Blackwell平台的B200与GB200芯片,2025年推出Blackwell Ultra芯片(B300或GB300),原订2026年推出下一代Rubin平台的R100芯片。
HGX B200液冷板方案的思考:NVIDIA为B200设定了两个TDP,1200W和1000W,前者定位液冷,后者定位风冷。此外,B100 还提供与之前的 H100 SXM 相同的 700W 范围,允许 OEM 制造商重复使用 700W 的风冷设计。当然,TDP 限制越高,时钟频率和启用的算术单元数量就越高,从而提高性能。事实上,FP4(Tensor 核)的性能对于 B200/1200W为20PFLOPS,对于B200/1000W 为 18PFLOPS,对于B100/700W 为14PFLOPS。
英伟达,最让人羡慕的地方莫过于“不受周期限制”,一直作为底层基建,持续“收税”,无论你做什么,都离不开它。作为 GPU 的缔造者,英伟达抓住了“PC 浪潮”的机遇,伴随着游戏市场的爆发,走进了千家万户; 接着,游戏业务疲软之际,加密牛市到来,英伟达显卡被广泛用于以太坊等加密货币“挖矿”,闷声发财; 随后,智能汽车产业崛起,它的车载芯片业务也迅速发展;最后,ChatGPT 横空出世,英伟达摇身一变,成为AI军火商……
从零到三万亿:NVIDIA的史诗崛起。 公司是全球 GPU 龙头,市场份额遥遥领先。英伟达(NVIDIA)是一家全球知名的技术公司,成立于 1993 年,最初以图形处理器(GPU)起家,通过不断的创新和发展,逐渐成为了高性能计算领域的领导者。根据 Jon Peddie Research 发布的 GPU 市场数据统计报告,英伟达 2022 年全年 PC GPU出货量高达 3034 万块,是 AMD 的近 4.5 倍;截至 2022 年四季度,在独立GPU 市场,英伟达占据 84%的市场份额,远超同业竞争公司。
Nvidia发展战略研究: NVIDIA作为加速计算领域的领导者,凭借其GPU架构在过去十年将计算速度提升100万倍,确立了不可撼动的技术优势。公司的核心竞争力体现在三个方面:首先是从芯片到系统、软件的全栈技术实力,形成了以GPU、CPU、DPU为核心的完整平台;其次是庞大的生态系统,拥有500万开发者和4万家企业用户,通过CUDA、AI Enterprise等软件平台持续扩大影响力;第三是在AI训练/推理、专业图形和游戏等关键市场的主导地位。这三大优势相互强化,构建了极高的竞争壁垒。
黄仁勋:后悔当年没听孙正义劝说,借钱买下英伟达所有股票 - 孙正义黄仁勋互曝往事:差点买下英伟达,错失两千亿美元。黄仁勋在日本开了NVIIDA AI Summit人工智能峰会的日本站,标准老黄式的主旨演讲后,和老朋友孙正义同台做了访谈。已经有短视频开始刷孙正义抱着黄仁勋痛哭做状的一幕 - 软银曾经是NVIDIA最大的股东啊,然后被孙正义抛售了。
Supermicro发布优化直液冷技术的NVIDIA Blackwell解决方案。在超算大会上,Supermicro, Inc.(NASDAQ: SMCI)作为一家专注于AI、云计算、存储和5G/边缘的全面IT解决方案提供商,推出了性能最强的SuperCluster。这是一种端到端的AI数据中心解决方案,基于NVIDIA Blackwell平台,专为万亿参数规模的生成式AI时代设计。新型SuperCluster显著增加了液冷机架内NVIDIA HGX B200 8-GPU系统的数量,与Supermicro现有基于NVIDIA HGX H100和H200的液冷SuperClusters相比,GPU计算密度大幅提升。此外,Supermicro正在扩展其NVIDIA Hopper系统产品组合,以满足加速计算在高性能计算(HPC)和主流企业AI中的快速应用。
据介绍,英伟达GB200 NVL4是一个全新的模块,是基于原有的GB200 Grace Blackwell Superchip AI解决方案的更大扩展。GB200 NVL4模块是在更大的主板上配置两个Blackwell GB200 GPU,即拥有两个Grace CPU和4个Blackwell B200 GPU。该模块被设计为具有4-GPU NVLINK域和1.3T相干内存的单服务器解决方案。在性能方面,该模块将使模拟性能提高2.2倍,训练和推理性能提高1.8倍。英伟达的合作伙伴将在未来几个月内提供NVL4解决方案。
NVIDIA H100 与 H200 GPU 比较:两款 GPU 性能评估。 NVIDIA 的 H200 GPU在 AI 社区引起了极大的轰动,它提供了显著更高的内存容量——大约是其前身 H100 的两倍。这些 GPU 共享强大的Hopper 架构,专为高效管理广泛的 AI 和 HPC 任务而量身定制。NVIDIA H100 是 NVIDIA 迄今为止功能最强大、可编程的 GPU,具有多项架构增强功能,例如与其前代产品 A100 相比具有更高的 GPU 核心频率和更强大的计算能力。
一文搞懂H100/H200,B100/B200,B200/GB200,HGX/DGX的区别和参数。 B200和B100都是基于英伟达最新一代Blackwell架构的数据中心GPU,英伟达目前的市场策略是以B200为主,从整体参数上,两者除了显存的规格一致,其他的不同精度的算力、功率有所不同,具体可以见下图,供参考,可以看到B100的TDP是700W,有传言说是为了兼容现有H100的服务器平台(机头)做的设计,但是从综合性能上B200更优,比如FP16算力是H100的2倍以上,同时TDP也提升到了单卡1000W,所以B200的服务器平台需重新设计,与H100的不兼容了。
英伟达芯片产能爆发,全球AI供应链迎来黄金时代。 Blackwell B200芯片在2024年第四季度的产量约为30万台,预计2025年第一季度将增长至80万台,环比激增1.67倍。与此同时,部分云服务供应商已经开始测试Blackwell系列的下一代产品——B300芯片。与B200相比,B300芯片在多项技术指标上实现了突破,比如引入了超级电容和备用电池的创新设计,从根本上解决了芯片运行中的电源稳定性问题。
英伟达公司(NVIDIA Corporation)在2024年11月20日举行了2025财年第三季度的财报电话会议。英伟达在第三季度实现了创纪录的收入,达到351亿美元,同比增长94%,环比增长17%,远超预期的325亿美元。
NVIDIA的过热问题主要出现在早期的QS样品(Qualification Sample)阶段,且已在后续的QS Plus和生产样品(Production Sample, PS)中得到解决。因此过热问题不会对产品销售产生重大影响。
热水?冷水?液冷系统的最佳水温是多少?随着芯片变得更强大和更耗能,芯片外壳内部的热量耗散需要更低的水温,以便支持芯片的可靠冷却。传统上,数据中心温度保持在20°C到22°C左右,但美国采暖、制冷与空调工程师学会(ASHRAE)多年来建议各机构将温控设置调高。因此,数据中心的温度逐渐上升:Facebook母公司Meta将温度提高到29.4°C,Google达到了26.6°C,Microsoft则发布了建议温度可达27°C的指南。传统数据中心的冷却水温设定在42-45°F(6-7°C)之间,而经过冷却系统优化的设施则成功地将冷却水温提高到50°F(10°C)甚至更高。据江森自控(Johnson Controls)估计,冷却水温每升高1°C(1.8°F),普通冷却机组的功耗可降低约2-3%。
维谛技术与Compass合作推出风液弹性适配的冷却装置:维谛技术(Vertiv)和Compass合作开发了一个可以从空气冷却切换到液体冷却的系统。这两家公司上周宣布建立合作伙伴关系,开发一种首创的冷却解决方案,该解决方案能够在空气和液体冷却之间灵活转换,以支持高密度计算。维谛技术正在开发和制造这项技术,是多年期、数十亿美元的供货计划的一部分,第一批将于2025年第一季度部署在Compass 工厂。Vertiv CoolPhase Flex将液体冷却功能与基于制冷剂的空气冷却技术和排热功能集成到一体化的设备中。该产品最初可以用作直膨(DX)冷却系统,具有集成的空气自然冷却节能技术,随着更多高密度计算的部署,集成了液体冷却功能。
DELL戴尔IR7000配备直接液体冷却:每机架高达480kW,搭载GB200 NVL4和144个B200 GPU。DELL戴尔最新推出的IR7000系统通过直接液体冷却技术,实现每机架高达480kW的计算能力:支持灵活设计,可搭载NVIDIA GB200 NVL4或GB200 NVL72。戴尔CEO迈克尔·戴尔在X平台发文:“我们的新IR7000通过直接液体冷却技术支持每机架高达480kW的计算能力。这种灵活的设计支持任意组合的云计算、AI和高性能计算(HPC)。该系统可捕获每个机架内近100%的热量。”
戴尔科技推出高密度计算液冷基础架构,AI工厂引领数据中心革新。 戴尔科技集团宣布推出全新集成式可扩展机架系统Dell Integrated Rack 7000(IR7000)与Dell PowerEdge M7725服务器,并为Dell PowerScale存储和Dell DataLakehouse数据管理产品再添新功能,持续巩固戴尔科技AI工厂创新成果,为大规模高密度计算及人工智能(AI)工作负载提供动力。
NTT Data将启动一个用于验证液冷系统设计与部署的示范数据中心,而NTT Communications则在现有的风冷设施中测试两相直芯液冷技术。NTT 计划在马来西亚柔佛州建设 290 兆瓦的数据中心园区。NTT数据公司正计划收购位于柔佛新山哥朗巴达(Gelang Patah)的一块27.7公顷土地,用于建设一个新的数据中心,计划容量为290兆瓦(MW)。
截止目前,世界五大科技公司的2024年拥有的算力,以及2025年的预测:微软有75万-90万块等效H100,明年预计达到250万-310万;谷歌有100万-150万块等效H100,明年预计达到350万-420万;Meta有55万-65万块等效H100,明年预计达到190万-250万;亚马逊有25万-40万块等效H100,明年预计达到130万-160万;xAI有10万块等效H100,明年预计达到55万-100万。
捷普又一重磅收购!加速数据中心能力战略部署。全球知名电子科技巨头捷普Jabil公司宣布,已收购液冷解决方案公司Mikros Technologies LLC。据悉,此次并购旨在进一步强化捷普在数据中心领域的服务能力,特别是通过Mikros先进的热管理技术,来升级其现有的数据中心解决方案并推动基础设施的革新。
NVIDIA 的“Blackwell Ultra”GB300 AI 服务器预计将于 2025 年中期首次亮相,具有“全液态”冷却和更高的性能。Blackwell Ultra GB300 AI 服务器预计将于 2025 年中期推出,具有“全液体”冷却和更高的性能。NVIDIA’s “Blackwell Ultra” GB300 AI Servers Expected To Debut By Mid-2025, Featuring “Fully-Liquid” Cooling & Much Higher Performance。在这次产品线调整中,原先的B200 Ultra被升级为B300,GB200 Ultra变为GB300,而B200A Ultra和GB200A Ultra则分别调整为B300A和GB300A。B300系列的发布预计将在2025年第二至第三季度进行,而B200和GB200系列则预计从2024年第四季度开始出货,持续至2025年第一季度。
美国俄交俄州州长迈克·德瓦恩当地时间12月16日宣布,亚马逊云科技(AWS)计划追加投资约100亿美元,在俄交俄州扩建数据中心基础设施。新数据中心将包含计算机服务器、数据存储驱动器、网络设备和其他形式的技术基础设施,用于支持包括AI和机器学习在内的云计算。AWS去年宣布在俄亥俄州的78亿美元投资计划,加上截至2022年已投资的超60亿美元,从2015年到2030年底,AWS在该州宣布的计划投资额将超过230亿美元。GB200服务器出货量明年将达到50,000-60,000台,微软和 Meta 的需求领先,分别售出25,000台和10,000台。广达的人工智能服务器收入预计将增长三倍。富士康预计明年AI服务器收入将占其服务器总收入的50%以上。包括微软、Meta、AWS、谷歌和戴尔(服务于xAI 和CoreWeave)在内的美国领先CSP预计将加速GB200的采用。AWS 推出新的数据中心组件以支持 AI | AWS投资750亿美元:打造创新水冷AI数据中心,引领未来科技 | 亚马逊云科技计划追加约100亿美元扩建数据中心基础设施,关注服务器需求提升。
微软今年买了48.5万颗英伟达AI芯片,达到Meta的两倍。 微软加大对于人工智能基础设施的投资,其今年买下了约485,000颗英伟达“Hopper”构架的英伟达GPU芯片,达到了第二大买家Meta(22.4万颗Hopper 芯片))的两倍多,亚马逊和谷歌更是被甩在了身后。随着以ChatGPT为代表的生成式AI的爆发,英伟达最先进的AI GPU产能一直是供不应求,微软也迫切希望通过采购更多的AI芯片,以使其在构建下一代人工智能系统的竞赛中占据了优势。这一市场上的竞争对手很多,除了微软自己投资的OpenAI之外,还有Meta、谷歌、Anthropic、埃隆马斯克的 xAI,以及众多的来自中国市场的竞争对手。中国的字节跳动和腾讯今年分别订购了约 23 万块英伟达芯片,其中包括 H20 型号,这是 Hopper 的低端版本,经过修改以满足美国对中国客户的出口管制。
据英国《金融时报》报道,在全球科技巨头争夺人工智能芯片的竞赛中,中国科技公司字节跳动异军突起,一举成为英伟达全球第二大采购方。数据显示,字节跳动今年采购了约23万片英伟达(Nvidia)芯片,仅次于微软(Microsoft),超越Meta、亚马逊和谷歌等传统科技巨头,展现出中国科技企业在全球AI竞争中的强劲实力。作为OpenAI最大投资方的微软仍然保持全球最大采购方的地位,今年采购量达48.5万片英伟达"Hopper"系列芯片。这一数字远超其他竞争对手,是英伟达在美国第二大客户Meta采购量(22.4万片Hopper芯片)的两倍多,同时也大幅领先于其在云计算领域的主要竞争对手亚马逊(19.6万片)和谷歌(16.9万片)。

 

 

 

Beijing Hansen Fluid Technology Co., Ltd. - 北京汉深流体技术有限公司
Danfoss Data center liquid cooling authorized distributor

Add:Rm2115, Tower C, Wangjing SOHO, Chaoyang district Beijing , China
PO100102
Phone:010-8428 2935 , 8428 3983 , 13910962635
15801532751,17310484595 ,13910122694
13011089770,15313809303
Http://www.hansenfluid.com
E-mail:sales@cnmec.biz

传真:010-8428 8762

京ICP备2023024665号
京公网安备 11010502019740

Since 2007 Strong Distribution & Powerful Partnerships