We engineer tomorrow to build a better future.
Solutions to your liquid cooling challenges.

 
 
Home | about us | liquid cooling | FD83 coupling | UQD Couplnig | Sensor | solenoid valve | EPDM hose| Hansen | contact | 中文
DANFOSS
Data center liquid cooling products
  Data center liquid cooling
  FD83 Coupling
  UQD Coupling
  UQDB couplings
  BMQC Blind Mate Valves
  NVQD02
  NVBQD02
  Royal EHW194 hose
  Emperor EHW094 hose
  5400 series refrigerant couplings
  Liquid cooling system integration
  Thermal Management Quick Disconnect Couplings
  Sensing solutions
Hose, tubing, fittings and connectors
 
Gromelle
Aeroquip
Quick Seal
 
Synflex
Winner
Boston
Weatherhead
 
Walterscheid
 
EverCool
 
Everflex
Energy storage
Thermal management products
Valve
Sensor
Downloads
  News and events
  Sucess
  Partners
  Catalogs

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


   

 

 

英伟达Q3财报电话会纪要
原创 AI产业挖掘机 AI产业挖掘机 2024年11月21日 10:16 浙江

 


英伟达公司(NVIDIA Corporation)在2024年11月20日举行了2025财年第三季度的财报电话会议。以下是从投资者角度总结的关键问题和重要信息,以问答形式呈现。

 

问题1:英伟达在2025财年第三季度的业绩如何,主要驱动因素是什么?

回答:

英伟达在第三季度实现了创纪录的收入,达到351亿美元,同比增长94%,环比增长17%,远超预期的325亿美元。

“Q3 was another record quarter. We continued to deliver incredible growth. Revenue of $35.1 billion was up 17% sequentially and up 94% year-on-year and, well above our outlook of $32.5 billion.”

主要驱动因素是对英伟达加速计算和AI的广泛采用,所有市场平台都实现了强劲的增长。

“All market platforms posted strong sequential and year-over-year growth, fueled by the adoption of NVIDIA accelerated computing and AI.”

问题2:数据中心业务的表现如何,增长的主要原因是什么?

回答:

数据中心业务再创新高,收入达到308亿美元,环比增长17%,同比增长112%。

“Data Center, another record was achieved in Data Center. Revenue of $30.8 billion, up 17% sequential and up 112% year-on-year.”

增长的主要驱动因素是对NVIDIA Hopper架构的强劲需求,特别是H200销售显著增加,成为公司历史上最快的产品推广。

“NVIDIA Hopper demand is exceptional and sequentially, NVIDIA H200 sales increased significantly to double-digit billions, the fastest product ramp in our company's history.”

云服务提供商(CSP)对数据中心收入贡献巨大,约占一半,收入同比增长超过两倍。

“Cloud service providers were approximately half of our data center sales with revenue increasing more than 2 times year-on-year.”

问题3:新一代Blackwell GPU的需求和进展如何?

回答:

Blackwell已成功进入全面生产,需求巨大。

“Blackwell is in full production after a successfully executed mass change. We shipped 13,000 GPU samples to customers in the third quarter, including one of the first Blackwell DGX engineering samples to OpenAI. Blackwell demand is staggering and we are racing to scale supply to meet the incredible demand customers are placing on us.”

客户正在准备大规模部署Blackwell,主要云服务提供商和客户都在积极采纳。

“Customers are gearing up to deploy Blackwell at scale. Oracle announced the world's first Zettascale AI Cloud computing clusters that can scale to over 131,000 Blackwell GPUs... Yesterday, Microsoft announced they will be the first CSP to offer in private preview Blackwell-based cloud instances powered by NVIDIA GB200.”

问题4:供应链状况如何,是否会影响Blackwell的供应和公司业绩?

回答:

供应链团队正在努力满足Blackwell的巨大需求,计划本季度交付比之前预估更多的Blackwell。

“Blackwell production is in full steam... And as Colette mentioned earlier, we will deliver this quarter more Blackwells than we had previously estimated.”

虽然供应链涉及多个组件和合作伙伴,但英伟达正在积极管理供应链,以满足客户需求。

“The component supply chain necessary to ramp at the scale you have to go back and take a look at how much Blackwell we shipped last quarter, which was zero... And in terms of how much Blackwell total systems will ship this quarter, which is measured in billions, the ramp is incredible... And we've got great partners.”

问题5:Blackwell的推出如何影响公司的毛利率?

回答:

随着Blackwell的加速推广,预期毛利率将暂时下降至低70%范围。

“GAAP and non-GAAP gross margins are expected to be 73% and 73.5%, respectively, plus or minus 50 basis points... As Blackwell ramps, we expect gross margins to moderate to the low-70s.”

但在完全推广后,预计Blackwell的毛利率将恢复至中间70%范围。

“When fully ramped, we expect Blackwell margins to be in the mid-70s.”

问题6:公司如何看待未来可能的硬件部署周期中的“消化期”风险?

回答:

公司认为,在完成全球数据中心的现代化之前,不会出现“消化期”。

“I believe that there will be no digestion until we modernize a trillion dollars with the data centers.”

数据中心正在从传统的CPU编码转向机器学习和AI,预计这一现代化进程将持续数年。

“What's going to happen over the course of next X number of years... is that over the course of four years, the world's data centers could be modernized as we grow into IT... We have to modernize the data center from coding to machine learning.”

此外,新兴的AI工厂和AI原生公司的出现也将持续推动需求。

“The second part of it is generative AI... We're going to see more and more companies like that... So my sense is that we're going to continue to build out to modernize IT... and create these AI factories.”

问题7:公司如何应对地缘政治风险,特别是与中国的业务和美国可能的政策变化?

回答:

英伟达将遵守任何新的监管规定,支持政府的决定,同时尽力服务客户。

“Whatever the new administration decides, we will of course support the administration... And then after that, do the best we can. And just as we always do... And then we will comply with any regulation that comes along fully and support our customers to the best of our abilities and compete in the marketplace.”

问题8:推理(Inference)市场的前景如何?与训练(Training)相比,推理的增长如何?

回答:

公司预期推理需求将大幅增长,目标是让所有公司都在全天候进行推理。

“Our hopes and dreams is that someday, the world does a ton of inference... We hope that every company is doing inference 24/7.”

推理的复杂性很高,需要高精度、高吞吐量和低延迟的计算能力。

“Inference is super hard... You need the accuracy to be high... You need the throughput to be high... but you also need the latency to be low.”

英伟达的架构和生态系统在应对推理需求方面具有优势。

“This innovation rate is what makes NVIDIA's architecture so great because our ecosystem is fantastic... That ability to innovate in every single direction at the same time... that capability is really quite phenomenal.”

问题9:其他业务板块(如游戏、专业可视化、汽车)表现如何?

回答:

游戏业务收入为33亿美元,环比增长14%,同比增长15%。但预计第四季度由于供应限制,游戏收入将环比下降。

“Gaming revenue of $3.3 billion increased 14% sequentially and 15% year-on-year... We expect fourth quarter revenue to decline sequentially due to supply constraints.”

专业可视化收入为4.86亿美元,环比增长7%,同比增长17%。

“ProViz. Revenue of $486 million was up 7% sequentially and 17% year-on-year.”

汽车业务收入创纪录,达到4.49亿美元,环比增长30%,同比增长72%。

“Automotive. Revenue was a record $449 million, up 30% sequentially and up 72% year-on-year.”

问题10:公司在主权AI(Sovereign AI)方面的进展如何,对未来增长有何影响?

回答:

公司主权AI计划持续获得动力,各国正在采用英伟达的加速计算技术建设国家AI基础设施。

“Our sovereign AI initiatives continue to gather momentum as countries embrace NVIDIA accelerated computing for a new industrial revolution powered by AI.”

主权AI的需求和管道保持稳定,预计将成为未来的增长机会。

“Our sovereign AI and our pipeline going forward is still absolutely intact... I think you'll continue to see this be growth opportunities that you may see with our regional clouds... This is areas where this is growing not only in terms of in Europe, but you're also seeing this in terms of growth in terms of in the Asia-Pac as well.”

总结:

英伟达在2025财年第三季度取得了创纪录的业绩,主要受数据中心业务的强劲增长和新一代Blackwell GPU的需求推动。尽管供应链和地缘政治存在挑战,但公司积极管理这些风险,并预期未来几个季度的持续增长。投资者应关注公司在数据中心现代化、AI工厂建立以及推理市场的拓展等方面的战略执行。

NVIDIA公司(纳斯达克代码:NVDA)2025财年第三季度业绩电话会议总结与分析

一、财务表现

收入创纪录:NVIDIA本季度收入达到351亿美元($35.1 billion),环比增长17%,同比增长94%,远超之前预期的325亿美元。

所有市场平台增长强劲:受NVIDIA加速计算和人工智能(AI,Artificial Intelligence)的采用推动,所有市场平台均实现了强劲的环比和同比增长。


二、主要驱动力和趋势


1. 数据中心业务

数据中心收入创纪录:数据中心收入达到308亿美元($30.8 billion),环比增长17%,同比增长112%。

NVIDIA Hopper架构需求旺盛:NVIDIA Hopper(H200)GPU需求异常强劲,销售额大幅增加,达到两位数的十亿美元,成为公司历史上增长最快的产品。

云服务提供商(CSP,Cloud Service Providers)贡献巨大:CSPs约占数据中心销售额的一半,收入同比增长超过2倍。他们部署了NVIDIA H200基础设施和高速网络,安装规模达数万GPU。

区域云和主权云的增长:区域云收入同比增长2倍,北美、欧洲、中东、非洲和亚太地区都在加速部署NVIDIA云实例和构建主权云(Sovereign Cloud)。

2. Blackwell架构的推出

Blackwell全面量产:Blackwell已成功完成量产转换,第三季度向客户交付了13,000个GPU样品,包括向OpenAI交付的Blackwell DGX工程样品。

需求惊人:Blackwell需求“惊人”,公司正努力扩大供应以满足客户的巨大需求。

客户部署:Oracle宣布了全球首个可扩展至超过131,000个Blackwell GPU的Zettascale AI云计算集群。微软将成为首个提供基于Blackwell的云实例的CSP。

3. AI推理和企业AI

AI推理(Inference)增长:NVIDIA是全球最大的AI推理平台,推理收入增长强劲。Hopper架构的持续性能优化推动了推理性能的大幅提升。

企业AI加速:企业正在使用NVIDIA AI Enterprise来构建协同工作者和代理(Agents),加速AI应用的开发和部署。

4. 工业AI和机器人

工业AI和机器人加速:物理AI(Physical AI)领域的突破推动了工业AI和机器人的加速发展。NVIDIA Omniverse被广泛采用,用于构建、训练和运行工业AI和机器人。

5. 主权AI计划
全球范围的主权AI计划:各国正在采用NVIDIA的加速计算来推动新的工业革命。印度、日本等国家的领先企业正在大规模部署NVIDIA GPU和AI基础设施。

三、供应链和产品组合
供应链管理复杂:Blackwell的生产涉及7种定制芯片,多种网络选项,以及液冷和风冷等配置。公司与全球众多供应商合作,包括台积电(TSMC)、安费诺(Amphenol)、鸿海(Foxconn)等,以满足需求。

毛利率影响:由于产品组合的变化和Blackwell的初始量产,预计毛利率将从当前的75%下降到低70%(Low-70s),随着Blackwell的全面量产,毛利率将回升至中70%(Mid-70s)。

四、其他业务表现

游戏业务:游戏收入为33亿美元,环比增长14%,同比增长15%。RTX需求旺盛,但预计第四季度收入将因供应限制而环比下降。

专业可视化:收入为4.86亿美元,环比增长7%,同比增长17%。

汽车业务:收入创纪录,达到4.49亿美元,环比增长30%,同比增长72%,得益于NVIDIA Orin的自驾车部署和市场需求。

五、未来展望

第四季度指引:预计第四季度收入为375亿美元($37.5 billion),环比增长约7%。这包括对Hopper架构的持续需求和Blackwell产品的初始量产。

供应链改善:公司正在全力提高Blackwell的供应,预计出货量将超过之前的估计。

长期增长前景:由于数据中心的现代化和AI工厂(AI Factories)的建设,预计对NVIDIA产品的需求将在未来几年持续增长。


六、投资者关注点

持续的强劲需求:AI和加速计算的广泛采用,以及Blackwell的推出,预计将推动公司的长期增长。

供应链管理和产能提升:公司正积极管理复杂的供应链,以满足强劲的市场需求。

毛利率的短期压力:由于Blackwell的初始量产,毛利率可能在短期内承压,但预计将随着规模效应而恢复。

地缘政治风险:出口管制和监管可能影响部分市场,但公司表示将遵守所有法规,并尽最大努力服务客户。

七、结论

NVIDIA在本季度取得了卓越的业绩,得益于AI和加速计算的广泛采用。随着Blackwell的量产和AI市场的持续增长,公司有望在未来保持强劲的增长态势。投资者应关注供应链管理、毛利率变化以及地缘政治风险对公司的影响。

 

 

英伟达(NVDA.O)FY25Q3跟踪报告:Q3业绩符合指引预期,产品结构变化短期影响毛利率表现
原创 鄢凡团队 招商电子 2024年11月22日 10:38 广东

事件:

英伟达发布FY25Q3季报,本季营收350.82亿美元,同比+94%/环比+17%,毛利率75%,同比持平/环比-0.7pct。综合财报及交流会议信息,总结要点如下:

 

评论:

1、本季营收符合指引预期,毛利率环比微降主要系产品结构变化影响。

FY25Q3营收为350.82亿美元,同比+94%/环比+17%,超指引预期(325亿美元),毛利率75%,同比持平/环比-0.7pct,环比下降主要系H100系统向数据中心内更复杂和成本更高的系统的产品结构转变。公司使用112亿美元用于股东回报,包括股票回购和现金分红。

 

2、四大业务板块再次实现同环比增长,H系列持续驱动数据中心营收增长。

1)数据中心:本季营收为308亿美元,同比+112%/环比+17%,Hopper需求异常强劲,环比来看H200的销售额增长至数百亿美元,网络收入同比增长20%,环比略有下降。CSP占数据中心收入约50%,同比增长超过 2倍,消费者互联网收入同比翻番以上,公司的软件、服务和支持收入已年化至15亿美元,预计今年年底将超过20亿美元;2)游戏和AI PC:营收33亿美元,同比+15%/环比+14%,笔记本电脑、游戏机和台式机收入均实现了环比和同比增长;3)专业可视化:营收4.86亿美元,同比+17%/环比+7%,AI正在成为强大的需求驱动因素,包括自动驾驶仿真、用于生产力相关用例的生成式AI模型原型设计,以及媒体和娱乐领域的生成式AI内容创作;4)汽车:营收4.49亿美元创单季新高,同比+72%/环比+30%,主要得益于NVIDIA Orin的自动驾驶部署,以及对NAV(导航辅助车辆)的强劲终端市场需求。

3、FY25Q4营收指引为375亿美元,短期毛利率或有调整但后续逐季修复。

FY25Q4营收指引中值为375亿美元(±2%),同比+69.66%/环比+6.89%,这反映了对Hopper架构的持续需求以及公司Blackwell产品的初步量产,随着供应的可见性不断增强,有望超越此前对Blackwell几十亿美元收入的预测,网络业务收入预计Q4将实现环比增长。在游戏业务方面,预计第四季度的收入将因供应限制而环比下降。毛利率指引为73.5%(±0.5pct),同比-3.2pcts/环比-1.5pcts,随着Blackwell的量产,预计毛利率起初将调整至70%的低位水平,在后续几个季度预计毛利率将恢复至75%左右的水平。

 

4、H系列Q4环比是否成长有待观察,H与B系列将在Q4并行销售。

1)Hopper:需求将持续到明年,尤其是明年初的几个季度,H200的需求显著增长,订单量和部署速度都非常快,Hopper将在Q4继续销售,包括针对中国市场的特定方案,但Q3到Q4 Hopper环比是否会进一步增长需要观察;2)Blackwell:公司在Q3向客户交付了13000台GPU样品,其中包括首批Blackwell DGX交付给OpenAI,Blackwell的交付数量将逐季增加,Oracle已宣布推出全球首个可拓展至131000割Blackwell GPU的云计算集群,Blackwell系统交付涉及7种芯片,包括支持风冷和液冷的NVL8、NVL36、NVL72等,公司上季度交付的Blackwell为零,本季度将交付“数十亿美元”,供应商合作伙伴包括台积电、安费诺、Vertiv、海力士、美光、安靠、京元、富士康、广达、纬颖、戴尔、惠普、超微电脑、联想等。

 

附录:英伟达FY2025Q3业绩说明会纪要
时间:2024年11月21日

出席:
Simona Jankowski – IR & VP
Colette Kress - EVP & CFO
Jensen Huang - CEO & President

 

会议纪要根据公开信息整理如下:

业绩概述:第三季度又是一个创纪录的季度,公司继续实现了令人难以置信的增长,收入达到 351亿美元,环比增长 17%,同比增长 94%,远超我此前325亿美元的预期,所有市场平台均实现了强劲的环比和同比增长,这得益于 NVIDIA 加速计算和 AI 的广泛应用。

 

数据中心:数据中心收入再创新高,收入308亿美元,环比增长 17%,同比增长 112%。NVIDIA Hopper的需求异常强劲,环比来看,NVIDIA H200的销售额显著增长至数百亿美元,成为公司历史上最快增长的产品,H200的推理性能提升了多达 2倍,TCL改善了约50%。

 

云服务提供商(CSP)贡献了公司数据中心销售额的约一半,收入同比增长超过 2倍,CSP部署了NVIDIA H200基础设施和高速网络,其安装规模扩展至数万台GPU,以满足AI训练和推理工作负载快速增长的需求,NVIDIA H200支持的云实例目前已在AWS、CoreWeave和Microsoft Azure上线,Google Cloud和OCI也将很快推出。除了大型CSP的显著增长,NVIDIA GPU区域云收入同比翻番,北美、EMEA(欧洲、中东及非洲)和亚太地区加速了NVIDIA 云实例和主权云的建设。

 

消费者互联网收入同比翻番以上,原因是公司扩大了NVIDIA Hopper基础设施规模,以支持下一代AI模型的训练、多模态和自主代理AI、深度学习推荐引擎,以及生成式AI推理和内容创建工作负载。

 

NVIDIA的Ampere和Hopper基础设施推动了推理收入的增长,使NVIDIA成为全球最大的推理平台,公司的庞大装机基础和丰富的软件生态系统鼓励开发者优化NVIDIA 平台,并持续提升性能和TCL(总拥有成本),NVIDIA软件算法的快速进步使Hopper推理吞吐量在一年内提升了 5倍,首个token生成时间缩短了 5倍,即将发布的NVIDIA NIM将进一步使Hopper推理性能提升 2.4倍,性能的持续优化是NVIDIA的标志,推动了整个NVIDIA装机基础获得越来越大的经济回报,Blackwell已进入全面生产阶段,并成功完成了大规模调整。

 

公司在第三季度向客户交付了13000台GPU样品,其中包括首批Blackwell DGX 工程样品之一交付给OpenAI。Blackwell是一个全栈、全基础设施、AI数据中心级别的系统,提供定制化配置,以满足多样化和不断增长的AI市场需求,包括从x86到ARM,从训练到推理的GPU,从InfiniBand到以太网交换机,以及NVLink和从液冷到风冷的解决方案,每个客户都在竞相抢占市场先机,Blackwell现在已交付到我们所有的主要合作伙伴手中,他们正在努力将其数据中心上线。

 

公司正在将Blackwell系统集成到客户多样化的数据中心配置中,Blackwell的需求非常惊人,我们正全力以赴扩大供应规模,以满足客户对我们的巨大需求,客户正在为大规模部署Blackwell做准备。Oracle宣布推出全球首个Zettascale AI云计算集群,可扩展至超过131000个Blackwell GPU,以帮助企业训练和部署下一代一些最苛刻的 AI 模型。

 

昨日,微软宣布他们将成为首家提供基于Blackwell的云实例的CSP,这些实例由NVIDIA GB200和Quantum InfiniBand提供支持,目前已进入私有预览阶段。上周,Blackwell首次亮相最新一轮的MLPerf Training结果,并在每GPU基准测试中大获全胜,其性能相比Hopper提升了2.2倍,这些结果还展示了我们为降低计算成本所做的不懈努力。

 

在运行GPT-3基准测试时,只需64个Blackwell GPU,而H100需要256个,实现了4倍成本减少,NVIDIA Blackwell架构通过NVLink Switch提供了多达30倍的推理性能提升,并实现了全新的推理扩展吞吐量和响应时间水平,非常适合运行新一代推理应用程序,例如OpenAI的o1模型。

 

每一次新的平台变革都会催生一波初创企业,已经有数百家AI原生公司凭借极大的成功交付AI服务,虽然Google、Meta、Microsoft 和OpenAI是其中的领军者,但像Anthropic、Perplexity、Mistral、Adobe Firefly、Runway、Midjourney、Lightricks、Harvey、Codeium、Cursor和Bridge也都取得了巨大的成功,同时,还有成千上万家AI原生初创企业正在构建新服务。

 

下一波AI革命将是企业级AI和工业AI的崛起,企业级AI正在全面加速发展,NVIDIA AI Enterprise,包括NVIDIA NeMo和NIM微服务,是一款Agentic AI的操作平台,行业领导者正在使用NVIDIA AI开发协同工具(Co-Pilots)和代理(Agents),通过与NVIDIA合作,Cadence、Cloudera、Cohesity、NetApp、Nutanix、Salesforce、SAP和ServiceNow正在竞相加速这些应用程序的开发,未来几年可能会部署数十亿个代理。

 

像Accenture和Deloitte这样的咨询行业领导者正在将NVIDIA AI带入全球企业,Accenture推出了一个新业务集团,拥有30000名接受过NVIDIA AI技术培训的专业人员,以帮助推动这一全球建设。此外,拥有超过77万员工的Accenture正在内部使用NVIDIA支持的Agentic AI应用程序,其中一个案例将营销活动中的手动步骤减少了25%-35%。近1000家公司正在使用 NVIDIA NIM,其快速普及反映在NVIDIA AI Enterprise的商业化中,预计NVIDIA AI Enterprise全年收入将同比增长超过2倍,并且公司的销售渠道正在持续增长。

总体而言,公司的软件、服务和支持收入已年化至15亿美元,预计今年年底将超过20亿美元,工业AI和机器人技术正在加速发展,这得益于物理AI的突破以及对物理世界理解的基础模型。

 

类似于企业AI代理使用的NVIDIA NeMo,公司为开发者构建了NVIDIA Omniverse,用于开发、训练和运行工业AI和机器人技术,一些全球最大的工业制造商正在采用NVIDIA Omniverse来加速其业务,自动化工作流程,并实现新的运营效率水平。全球最大的电子制造商富士康正在使用基于NVIDIA Omniverse构建的数字孪生和工业AI,以加快其Blackwell工厂的建设并推动新的效率提升,仅在其墨西哥工厂,富士康预计每年的千瓦时用电量将减少超过 30%。从地理角度来看,由于向行业出口合规的铜制品出货量增加,公司在中国的数据中心收入实现了环比增长,作为数据中心总收入的一个比例,中国市场的收入仍然远低于出口管制开始之前的水平,预计中国市场在未来将保持非常竞争的态势,公司将继续遵守出口管制规定,同时服务我们的客户,我们的主权AI项目正在不断取得进展,各国正在采用NVIDIA加速计算,推动由AI驱动的新工业革命。

 

印度的领先CSP(云服务提供商),如塔塔通信(Tata Communications)和Yotta Data Services,正在为数万台NVIDIA GPU建设AI工厂,到年底,印度 NVIDIA GPU部署将增加近10倍,Infosys、TSE和Wipro等公司正在采用NVIDIA AI Enterprise,并为近50万名开发人员和顾问提供技能提升培训,以帮助客户在我们的平台上构建和运AI 代理。

 

在日本,软银(SoftBank)正在使用NVIDIA DGX Blackwell和Quantum InfiniBand构建该国最强大的AI超级计算机,软银还与NVIDIA合作,将电信网络转型为分布式AI网络,基于NVIDIA AI Aerial和AI-RAN平台运行,可同时处理5G RAN和CUDA AI,我们将在美国与T-Mobile推出相同的解决方案,包括NEC和NTT在内的日本领导企业正在采用NVIDIA AI Enterprise,而主要的咨询公司(如EY和Strategy & Consulting)正在帮助将NVIDIA AI技术引入日本的工业领域。

 

网络业务收入同比增长 20%,环比收入增长的领域包括InfiniBand和以太网交换机、SmartNIC和BlueField DPU,然而,网络收入整体环比略有下降,但网络需求强劲并在增长中,预计第四季度将实现环比增长,CSP和超级计算中心正在使用并采用NVIDIA InfiniBand平台,为新的H200集群提供支持。

 

NVIDIA Spectrum-X以太网AI的收入同比增长超过3倍,公司的销售渠道正在扩展,多家CSP和消费互联网公司计划部署大型集群,传统以太网并非为AI设计,而NVIDIA Spectrum-X独特地利用了此前InfiniBand独有的技术,使客户能够实现GPU计算的巨大扩展。通过Spectrum-X,xAI的Colossus拥有10万台Hopper超级计算机,可实现零应用延迟降级,并将数据吞吐量维持在95%,而传统以太网则仅为60%。

 

游戏:游戏收入为33亿美元,环比增长14%,同比增长15%,第三季度是游戏领域表现出色的一个季度,笔记本电脑、游戏机和台式机收入均实现了环比和同比增长,RTX的终端需求受到返校季销售强劲的推动,消费者继续选择GeForce RTX GPU和设备来支持游戏、创意和AI应用,渠道库存保持健康状态,公司正在为假日季做好准备,已开始出货新的GeForce RTX AI PC,这些PC配备了来自ASUS和MSI的最高321 AI TOPS,并支持微软的Copilot+功能,预计在第四季度推出,这些设备利用RTX光线追踪和AI技术的强大功能,极大提升了游戏、照片和视频编辑、图像生成以及编码的性能。

 

在过去的一个季度,公司庆祝了GeForce 256诞生25周年,作为世界上第一款GPU,从变革计算图形到引领AI革命,NVIDIA的GPU一直是我们这个时代一些最重要技术的驱动力。

 

专业可视化:收入4.86亿美元,环比增长7%,同比增长17%,NVIDIA RTX工作站仍然是专业图形、设计和工程相关工作负载的首选,此外,AI正在成为强大的需求驱动因素,包括自动驾驶仿真、用于生产力相关用例的生成式AI模型原型设计,以及媒体和娱乐领域的生成式AI内容创作。

 

汽车:收入创下纪录,达到4.49亿美元,环比增长30%,同比增长72%,这一强劲增长得益于NVIDIA Orin的自动驾驶部署,以及对NAV(导航辅助车辆)的强劲终端市场需求,沃尔沃汽车推出了其基于NVIDIA Orin和DriveOS的全电动SUV。

 

毛利率:GAAP毛利率为74.6%,非GAAP毛利率为 75%,环比下降,主要原因是H100系统向数据中心内更复杂和成本更高的系统的产品结构转变。

 

运营费用:环比增长了9%,这是由于新产品推出所需的更高的计算、基础设施和工程开发成本。

 

股票回购和现金分红:三季度公司通过股票回购和现金分红的形式向股东返还了112亿美元。

 

FY25Q4业绩展望:

 

四季度总收入预计为375亿美元,上下浮动2%,这反映了对Hopper架构的持续需求以及公司Blackwell产品的初步量产,尽管需求远远超过供应,但随着供应的可见性不断增强,我们有望超越此前对Blackwell几十亿美元收入的预测。在游戏业务方面,尽管第三季度的销售表现强劲,但预计第四季度的收入将因供应限制而环比下降。

 

GAAP和非GAAP的毛利率预计分别为73%和73.5%,上下浮动50个基点。Blackwell是一个可定制的AI基础设施,具有多种类型的NVIDIA自研芯片、多种网络任务选项,以及用于风冷和液冷数据中心的配置,公司当前的重点是满足强劲需求,增加系统供应,并为客户提供最佳的配置组合。随着Blackwell的量产,预计毛利率将调整至70%的低位水平,在完全量产后,我们预计Blackwell的毛利率将达到70%的中位水平。GAAP和非GAAP的运营费用预计分别为48亿美元和34亿美元。

 

我们是一家数据中心规模的 AI 基础设施公司,公司的投资包括建设用于硬件和软件栈开发的数据中心,并支持新产品的推出,GAAP和非GAAP的其他收入和支出预计为约4亿美元,不包括非关联投资的收益和损失。GAAP 和非GAAP的税率预计为16.5%,上下浮动1%,不包括任何离散项目。

 

Q&A

 

Q:关于大语言模型扩展是否已经停滞的争论,目前显然仍处于非常早期的阶段,公司是如何帮助客户解决这些问题的?此外,关于一些尚未受益于Blackwell的集群,这是否进一步推动了对Blackwell的需求?

A:基础模型的预训练扩展仍然有效并在继续进行,这是一条经验法则,而非根本的物理定律,但现有证据表明它依然在扩展,然而,仅仅依靠预训练扩展已经不够,现在我们发现了另外两种扩展方式。

 

第一种是后训练扩展,最初的后训练方式是基于人类反馈的强化学习(RLHF),而现在我们有了基于AI反馈的强化学习(RLAIF),以及各种形式的合成数据和生成数据来辅助后训练扩展。

 

另一个最大的进展和最令人兴奋的发展是Strawberry(ChatGPT o1,OpenAI 的 o1),它引入了推理时间扩展,也称为测试时间扩展。它的工作原理是,思考时间越长,生成的答案质量越高,这种方法包括“链式思维”(chain of thought)和“多路径规划”(multi-path planning)等技术,能够进行反思等一系列过程,这在直觉上有点类似于我们在回答问题之前在脑海中进行思考的过程。

 

因此,现在我们有了三种扩展方式,并且可以看到这三种扩展方式正在全面展开,结果就是,对我们基础设施的需求非常强劲。举个例子,上一个基础模型时代的尾声使用了约10万台 Hopper,而下一代从10万台Blackwell开始,这大致反映了行业在预训练扩展、后训练扩展以及现在非常重要的推理时间扩展方面的趋势。

 

由于这些原因,需求非常强劲,但同时需要记住,我们也看到推理需求正在迅速扩展,公司目前是全球最大的推理平台,因为我们的装机基础非常庞大,一切基于Ampere和Hopper训练的模型在Ampere和Hopper上的推理效果都极为出色。

 

随着我们转向使用Blackwell训练基础模型,它留下了一个庞大的高效推理基础设施装机基础,推理需求在增加,推理时间扩展也在增长,我们也看到AI原生公司的数量持续增长,此外,企业对Agentic AI的采用也成为新的热点,因此,公司从多个不同领域看到了大量的需求涌现。

 

Q:能否谈谈公司按时执行的能力?另外,关于供应限制,是多种组件导致的吗?还是特别集中在HBM?供应限制是否有所改善?还是在恶化?

A:关于第一个问题,Blackwell的生产正在全速推进,实际上,正如之前提到的,公司本季度交付的Blackwell数量将超过之前的预期,我们的供应链团队与供应合作伙伴通力合作,正在全力扩大Blackwell的供应,并计划在明年继续努力提升产能。

 

确实,需求目前超过了我们的供应,这是可以预期的,因为我们正处于生成式AI革命的开端,同时也处于能够进行推理和长时间思考的新一代基础模型的起步阶段。此外,物理AI是一个非常令人兴奋的领域,这种AI现在能够理解物理世界的结构。

 

Blackwell的需求非常强劲,我们的执行情况良好,公司在全球范围内开展了大量的工程工作。例如,Dell和CoreWeave正在部署系统,Oracle的系统也已经上线,微软即将预览其Grace Blackwell系统,Google的系统也在运行,所有这些云服务提供商(CSP)都在竞相抢占先机。

 

公司与这些客户的工程合作相当复杂,这是因为尽管我们构建了全栈和完整的基础设施,我们仍需将这些 AI 超级计算机解耦,并将其集成到世界各地的定制数据中心架构中,这种集成过程我们已经经历了多个世代,因此我们对此非常有经验,但即便如此,目前仍有大量工程工作需要完成。不过,从目前上线的所有系统来看,Blackwell状态非常良好,本季度的供应计划已经超过了我们的预期。

 

关于供应链,Blackwell系统的交付涉及7种定制芯片,包括支持风冷或液冷的 NVLink 8、NVLink 36和NVLink 72,支持x86或Grace的系统,并将这些系统集成到全球各地的数据中心中,这是一项极其复杂的工作,上季度公司交付的Blackwell系统为零,而本季度将交付的Blackwell系统数量以“数十亿美元”计,这种扩展速度令人惊叹,几乎全球的每家公司都参与到了我们的供应链中,从TSMC和Amphenol(连接器公司)到Vertiv、SK Hynix、Micron Spill、Amkor、KYEC,以及富士康及其建设的工厂、Quanta、Wiwynn,再到Dell、HP、Super Micro、联想等合作伙伴,参与的公司数量非常庞大,真是令人难以置信,总的来说,目前Blackwell的量产进展非常顺利。

最后,关于执行产品路线图的能力,公司正按计划执行,通过这样做,我们不仅提高了平台的性能,还显著降低了训练和推理的成本,使AI更加普及。

 

此外,还有一点非常重要,那就是数据中心的规模是有限的,从以前的10兆瓦到现在的100兆瓦乃至几百兆瓦,甚至规划中的千兆瓦级数据中心,无论规模多大,其电力都是有限的,在电力受限的数据中心中,最高的性能功耗比直接转化为客户的最高收入,公司的annual roadmap一方面降低了成本,另一方面,因为我们的性能功耗比远优于其他任何竞争对手,为客户创造了最大的收入。因此,这种年度节奏对公司来说非常重要,我们完全有意愿继续保持,并且目前一切进展顺利。

 

Q:关于Blackwell今年的增长轨迹能否进一步说明?之前提到,Blackwell的表现会比预期更好,可能达到在1月提到的“数十亿美元”规模以上的水平。近期还提到Blackwell将在4月季度超越Hopper,4月季度是Blackwell超越Hopper的节点吗?其次随着Blackwell的增长,毛利率可能会下降到70%初期水平,如果4月是交叉点,这是否意味着毛利率的最大压力集中在4月季度?到时候毛利率会在70%出头吗?

A:关于毛利率的讨论,我们在初期阶段推出Blackwell时,市场会看到许多不同的配置以及不同类型的芯片,公司将专注于为客户提供最佳的使用体验,同时逐步提升毛利率。起初,毛利率确实会处于70%出头的水平,但随着后续几个季度的推进,我们的毛利率会逐步增长,并希望能快速恢复到75%。

 

Hopper的需求将持续到明年,尤其是明年初的几个季度,同时,我们在下一季度会交付更多的Blackwell,而再下一季度交付的数量会比第一季度更多,从全局来看,目前我们正处于计算领域两大重要转型的初始阶段,这种转型意义非凡。

 

第一,计算从传统的运行在CPU上的代码编程模式,转向基于GPU运行的神经网络生成的机器学习模式,这种从代码编程到机器学习的根本转变已经普及,几乎所有企业都在推进机器学习技术,而机器学习也是生成式AI的基础,全球范围内价值万亿美元的计算系统和数据中心正在为机器学习的需求进行现代化改造。

 

第二,在这些现代化系统之上,我们正在构建一种全新的能力,即AI,当我们提到生成式AI时,实际上是在说这些数据中心已经变成了“AI工厂”,就像发电厂生成电力一样,现在的数据中心正在生成AI。由于AI服务的用户规模庞大,这些“AI工厂”会像电力工厂一样全天候运行。目前,许多AI服务已经是24/7不间断运行的状态。

 

因此,我们将见证这种新型系统的上线,我称之为“AI工厂”,因为这与传统数据中心有着本质的不同,这两大根本性趋势才刚刚开始,我们预计这种现代化改造以及新兴行业的创造将持续多年。

 

Q:是否可以合理地假设,英伟达的毛利率将在2025年下半年恢复到70%水平?此外历史上硬件部署周期通常伴随着一定的消化阶段,英伟达何时会进入这个阶段?还是说,因为Blackwell刚刚开始,这个问题还为时过早?为满足首波需求为目标,预计需要几个季度的出货?这种增长能否持续到2026年?是否应该预期硬件部署在长期结构性增长中会出现消化阶段?

A:关于毛利率是否能在明年下半年达到70%水平,我认为这是合理的假设,具体来看,目前全球的数据中心多数是为过去运行在CPU上的手写应用程序设计的,而这已经不再适用,如果任何公司计划新建数据中心,都应面向机器学习和生成式AI的未来设计,因为旧的数据中心已经足够多了。在接下来的几年里,全球数据中心将逐步现代化升级,例如,假设未来4年数据中心逐步完成现代化改造,同时IT行业年均增长20%到30%,到2030年,全球计算相关数据中心的总价值可能达到数万亿美元,我们需要通过现代化升级,从编码计算转向机器学习计算。

 

另一方面,生成式AI正在为世界带来一种全新的能力和市场细分,这种能力并没有取代现有市场,而是完全创新的,就像iPhone的推出,它并没有替代其他产品,而是创造了全新的需求。我们会看到越来越多类似OpenAI这样的公司,它们通过服务生成智能,这些智能可能是数字艺术智能(如Runway),基础智能(如OpenAI),法律智能(如Harvey),或数字营销智能等,这样的AI原生公司数量已达数百家,并在快速增加。

 

每一次平台转型都会催生一波新企业,比如互联网时代的互联网公司,云计算时代的云原生公司,以及移动互联网时代的移动原生公司,现在,AI原生公司正在崛起,因为人们看到了平台转型带来的全新机遇。因此,我们的重点将是两方面:第一,推动IT和计算的现代化升级;第二,构建用于生成AI的新型“AI工厂”,为全新产业生产AI。

 

关于Hopper与Blackwell的动态:对于毛利率的现状和变化,“低”毛利率可能在71%至72.5%之间,甚至可能略高,公司将通过改进生产良率和优化产品性能,推动全年毛利率的逐步提升,最终在明年下半年恢复到75%。

 

至于Hopper,目前H200的需求显著增长,不仅订单量大幅提升,部署速度也非常快,这是我们见过增长最快的产品之一,Hopper将在第四季度继续销售,并覆盖各种配置,包括针对中国市场的特定方案。同时,客户也在积极布局Blackwell,因此两者将在第四季度并行运行,至于Hopper在第三和第四季度之间是否会进一步增长,这种可能性存在,但具体结果仍需观察。

 

Q:能否谈谈对Inference市场的观察?此前提到过Strawberry和长周期推理项目的相关影响,也提到过将部分老化的Hopper芯片用于推理的可能性,是否预计在接下来的12个月里,Inference的增长速度会超过Training?

A:我们的愿景是,有一天全球范围内的推理应用能达到非常高的水平,这将标志着AI的真正成功,即每家公司都在营销、预测、供应链、法律、工程以及编码等部门内全天候使用推理功能,我们希望企业能够24/7地运行推理,同时催生数千家AI原生初创企业,这些公司可以生成Tokens和AI,为各类计算体验提供支持,从Outlook、PowerPoint到Excel,甚至打开PDF文件,都会涉及大量Tokens生成。

 

我个人很喜欢Google推出的NotebookLM应用,我将大量PDF和学术论文存入其中,利用它的解析和语音功能,既有趣又高效,这正是AI的目标,训练模型供用户使用。

 

此外,还有一个全新AI领域称为“Physical AI”,与大语言模型理解人类语言和思维过程不同,“Physical AI”可以理解物理世界的结构意义,判断哪些是合理的、可能发生的,并预测短期未来,这种能力对工业AI和机器人领域具有极高的价值,也因此激发了许多AI原生公司、机器人公司和物理AI公司的发展。这正是我们开发Omniverse的原因。

 

Omniverse的目的在于支持这些AI的创建,让它们通过合成数据生成和强化学习在物理反馈中成长,而非仅依赖人类反馈,Omniverse能够支持物理AI的发展,实现推理的目标,当前,我们已开始看到推理领域的增长趋势,这令人振奋。

 

需要说明的是,推理本身非常复杂,高精度、高吞吐量和低延迟的需求使推理变得极具挑战性。一方面,推理的上下文长度不断增加,因为模型需要理解复杂语境以完成任务;另一方面,模型的规模和Multimodality也在不断扩大,这些技术维度上的创新对硬件架构提出了极高要求。

 

NVIDIA的架构能够应对这些挑战,因为我们拥有一个强大的生态系统,基于CUDA和NVIDIA架构进行创新的开发者可以更快速地实现成果,并确保成果能够无缝运行,如果出现问题,开发者通常也会认为是自身代码的问题,而不是NVIDIA的架构。

 

这种全面创新的能力,加上庞大的用户基础,使得在NVIDIA计算平台上开发的成果能够广泛部署到全球数据中心、边缘设备及机器人系统中。这种能力无疑是非常卓越的。

 

Q:关于Blackwell周期和数据中心业务中的网络业务,上季度结果显示,网络业务环比下降了约15%,但公司提到需求仍然非常强劲,还提及多个云计算服务提供商(CSP)针对大规模集群的设计中标情况,能否详细说明网络业务的现状、可能遇到的制约因素,以及公司对Spectrum-X实现此前提到的数十亿美元目标的信心?

A:首先来看网络业务,与去年同期相比,我们的增长非常显著,自收购Mellanox以来,公司的重点一直是将网络与数据中心业务深度整合,网络在其中扮演着至关重要的角色,我们通过数据中心系统销售网络解决方案的能力持续提升,表现也非常良好,本季度虽然有些许下滑,但公司有信心快速恢复增长。

 

当前,公司正为Blackwell和更多系统的准备工作奠定基础,这些系统不仅会使用我们现有的网络技术,还将整合许多针对大规模系统的新型网络解决方案,因此,我们对未来的增长充满信心。

 

Q:在上次财报电话会议中,提到Sovereign AI的需求规模在低双位数的数十亿美元级别,目前情况如何?能否解释游戏领域的供应约束问题?这是否与供应向数据中心倾斜有关?

A:首先谈谈主权AI,主权AI是公司增长的重要领域之一,特别是在生成式AI兴起后,许多国家开始构建本地化的大模型,这些模型适配本国语言和文化,并与国内企业合作开发,在今天的会议中,我们也讨论了这一领域的多项进展。

 

公司在主权AI领域的管道仍然非常稳固,各国正在努力构建这些基础模型和区域云。同时,一些国家也在建设AI工厂,为主权AI的应用提供支持,这一趋势不仅在欧洲表现显著,亚太地区也出现了显著增长,主权AI仍将为公司提供长期的增长机会。

 

关于游戏供应的问题,目前我们的重点是快速提升各类产品的供货能力,就游戏而言,由于销售表现强劲,供应链需要更快地跟上需求的节奏,本季度可能会面临一定的供应紧张,但随着进入新的日历年,我们将恢复正常供应,虽然本季度略显吃紧,但我们预计情况会很快改善。

 

Q:关于美国国内和中国相关业务的发展,是否有任何关于关税或相关事项的消息或讨论?

A:目前,我们专注于本季度的目标,特别是在Blackwell的生产和出货方面,为此,我们与全球的供应商紧密合作,确保顺利推进,等到下个季度时,公司会为提供关于下一阶段推进情况的更详细信息。

 

至于新一届政府的政策,无论其决定如何,公司都会全力支持并遵守相关要求,这是我们必须履行的最高责任。同时,我们将尽全力优化业务,如以往一样,我们需要做到三点:完全遵守任何新规,尽最大努力支持客户,以及在市场中积极竞争,并且要同时兼顾这三方面。

 

Q:提到AI生态系统中的不同阶段,包括pre-training、大语言模型、einforcement learning及inference阶段。能否从高层次的角度简述,在AI生态系统中,比如在某些客户或大模型中,目前各阶段大致的算力分布是怎样的?pre-training、einforcement learning以及inference分别占据多少算力?哪个部分的增长最为关键?

A:目前,大部分算力仍集中在基础模型的预训练阶段,post-training技术刚刚开始应用,无论是在预训练还是后训练中,能够实现的优化都旨在尽量降低推理的成本。然而,优先顺序总是有限的,因此在实际应用中仍需现场决策、情境推理和反思。

 

从整体来看,所有三个阶段都在扩大规模是合理的,尤其是在基础模型领域,现在,我们已经进入multimodality基础模型时代,训练这些模型需要处理的海量视频数据量级达到数peta bytes,规模惊人。

 

因此,预计未来,预训练、后训练和推理阶段都会持续扩展规模,这也是为什么我们需要越来越多的计算能力,并需要大幅度提升性能,从而降低成本,推动收益增长,并进一步推进AI革命的关键原因。

 

总结:英伟达业务的显著增长由两大根本趋势驱动,这些趋势正在推动全球范围内对英伟达计算技术的采用。

 

首先,计算架构正在经历一次重新定义,从传统的代码编程模式转向基于机器学习的平台,这一转变意味着从在CPU上运行代码,到在GPU上处理神经网络,传统数据中心基础设施的万亿美元级装机量正在被重构,以适应“软件2.0”的需求,通过机器学习生成AI。

 

其次,AI时代正全面加速发展,生成式AI不仅是一种新型的软件能力,更是一个崭新的行业,AI工厂正在生产数字智能,引领着一场能够催生数万亿美元级AI产业的新工业革命,对Hopper的需求和对Blackwell的期待(目前已全面投入生产)异常强劲,这背后有多个原因:一是基础模型的开发者数量较去年显著增加;二是预训练和后训练的计算规模正以指数级增长;三是AI原生初创公司的数量空前增多,同时成功的推理服务也在不断增加。此外,随着ChatGPT和OpenAI的推出,一种名为“test time scaling”的新规模法则也应运而生,所有这些发展都需要极大的计算能力支撑。

 

AI正在重塑各行各业、企业和国家,企业正在采用“Agentic AI”来彻底变革工作流程。从长远来看,AI助手将协助员工更快速、更高效地完成工作,由于“物理AI”的突破,工业机器人领域的投资激增,推动了新的训练基础设施需求,研究人员开始利用海量视频数据和Omniverse合成生成的数据来训练全球性基础模型,机器人时代即将到来。

 

全球各国正逐步认识到这些AI趋势的重要性,开始重视建设本国的AI基础设施,AI时代已经到来,并呈现出广泛而多样化的特点,英伟达凭借其在技术、规模及全栈解决方案方面的专业能力,能够为未来涵盖数万亿美元机会的AI与机器人市场提供全面支持,从各大超大规模云、企业私有云,到主权区域AI云,从本地部署到工业边缘和机器人应用,英伟达全方位满足这些需求。

 

 

术语解释


Hopper架构(Hopper Architecture):NVIDIA的GPU架构,专为AI和高性能计算设计。

H200:基于Hopper架构的GPU型号,提供高性能的AI计算能力。

Blackwell:NVIDIA的新一代GPU架构,相比Hopper有显著的性能提升。

云服务提供商(CSPs)(Cloud Service Providers):提供云计算服务的公司,如亚马逊AWS、微软Azure等。

AI推理(Inference):使用训练好的AI模型进行预测或决策的过程。

AI原生公司(AI-native companies):以AI为核心业务的公司,利用AI技术提供创新服务。

主权AI(Sovereign AI):由国家或地区构建的AI基础设施,满足本地的数据主权和安全需求。

MLPerf:衡量机器学习性能的基准测试套件。

NVLink:NVIDIA开发的高速GPU互连技术。

DGX:NVIDIA的AI超级计算机产品线。

Omniverse:NVIDIA的实时3D协作平台,用于模拟和设计复杂系统。

基础模型(Foundation Model):大型预训练AI模型,可用于多种下游任务。

物理AI(Physical AI):理解和模拟物理世界的AI,应用于工业和机器人领域。

AI工厂(AI Factory):用于训练和部署AI模型的大规模计算基础设施。

生成式AI(Generative AI):能够生成内容(如文本、图像、音频等)的AI模型。

 

 

英伟达Q3财报:AI浪潮下的霸主
2024年11月25日 08:18 上海

英伟达公布的2025财年第三季度财报显示,这家全球最有价值的公司在AI浪潮中继续稳步扩张。实现营收同比增长93.6%,达350.8亿美元,超出市场预期。数据中心业务占比近九成,成为推动业绩增长的核心动力,同时游戏业务也呈现回暖迹象。随着下一代Blackwell GPU的量产,英伟达在未来数季度内将进一步巩固其在AI芯片市场的主导地位。然而,毛利率短期承压以及市场对增长速度的高期望,仍对其估值和股价表现构成挑战。

 

我们从核心财务数据和未来展望两个方面,来看看这份财报的含金量。

- 英伟达在Q3实现营收 350.8亿美元,同比大增 93.6%,远超市场预期。
- 净利润则达 193亿美元,同比增长 109%,再创历史新高。
- 数据中心业务贡献 307.7亿美元,同比增长 112%,占总营收 87.7%。
- 游戏业务实现收入 32.8亿美元,同比增长 14.8%,显示出显卡市场份额进一步扩大。

 

对于第四季度,英伟达预计收入 375亿美元(±2%),同比增长 69.7%,主要由Blackwell GPU的出货拉动,市场普遍认为公司实际收入可能逼近 400亿美元。

伟达本季度毛利率(GAAP)为 74.6%,Blackwell的备货和初期生产爬坡,毛利率出现阶段性回落,预计Q4毛利率为 73%(±0.5%),未来随着Blackwell的规模化量产,毛利率将回升至 75% 附近的水平。

 

- 数据中心业务:同比增长 112%,营收 307.7亿美元,Hopper GPU和AI训练需求的驱动,计算收入占比 80.8%,继续远超AMD和英特尔,每年的节奏确实是超级好的。
- 游戏业务:营收 32.8亿美元,同比增长 14.8%,受益于RTX 40系列显卡的热销和游戏机SoC的需求上升。
- 汽车业务反而成了付不起的阿斗,但是目前也没人在意了。

英伟达在数据中心和游戏业务的双轮驱动下,整体业绩表现超越竞争对手。AMD本季度的游戏业务收入同比下滑 69.3%,这进一步凸显英伟达在显卡市场的强势地位。

 

 

Part 2
未来展望:技术迭代与市场竞争

 

下一代Blackwell GPU被视为英伟达未来数季度增长的关键引擎,管理层上调了对Blackwell四季度收入的预期,从“数十亿美元”提升至更高水平。据透露,鸿海、广达和Dell等搭载Blackwell的服务器将于 2024年底 开始量产发货,这一时间点与Meta、谷歌、微软和亚马逊四大云厂商资本开支的高峰期高度契合。

 

- Blackwell产品的初期需求已显著超出供给,预计下一财年会出现“供不应求”的局面。
- 在AI芯片市场的份额有望从当前的 80.8% 进一步扩大,稳固行业霸主地位。

 

云厂商资本开支是数据中心业务的主要驱动力。本季度四大云厂商资本开支合计 649亿美元,同比增长 73.8%。下季度这一数字预计将达到 696亿美元,环比增长 7.2%。英伟达因具备领先的产品力和稳定的供应链,成为云厂商扩张的首选合作伙伴。

随着生成式AI需求的持续爆发,Hopper和Blackwell GPU将为大模型训练和推理提供底层算力支持,预计未来数年AI芯片需求将保持高增速。

 

- 游戏业务在公司收入中的占比有所降低,但RTX显卡的强劲表现表明英伟达在该领域仍有增量空间,得益于GeForce RTX 40系列GPU的强劲销售,英伟达的独显市场份额进一步提升至历史新高,而AMD和英特尔显卡的市场表现则持续低迷。

根据IDC数据,2024年Q3全球PC市场出货量同比增长 0.9%。这一趋势将为游戏显卡需求提供支撑。

- 在消费端,英伟达有望于2025年推出Blackwell架构的PC产品,这将进一步扩大其在消费市场的影响力。
- 在汽车领域,大家已经完全不在意了。

 

英伟达在第三季度交出了一份亮眼的财报。凭借数据中心业务的高速增长和游戏业务的市场份额提升,公司展现出强大的盈利能力和增长潜力。Blackwell GPU的量产出货将成为Q4业绩增长的核心驱动力。长期来看,公司在AI芯片领域的技术领先优势和稳定的市场需求,将继续支持其高估值水平。然而,随着市场对其增长预期的不断提升,公司未来在收入增长和毛利率上的表现需继续保持稳定,否则可能面临估值压力。

 

小结

英伟达在AI浪潮中无疑处于领跑地位,Blackwell GPU的市场表现将成为未来关键观察点。在巨头资本开支增长的背景下,英伟达有望继续巩固其AI芯片市场霸主的地位,确实是没得说。


 

 

微信扫一扫
关注该公众号

 

 

关于我们

北京汉深流体技术有限公司是丹佛斯中国数据中心签约代理商。产品包括FD83全流量自锁球阀接头;液冷通用快速接头UQD & UQDB;OCP ORV3盲插快换接头BMQC;EHW194 EPDM液冷软管、电磁阀、压力和温度传感器及Manifold的生产。在国家数字经济、东数西算、双碳、新基建战略的交汇点,公司聚焦组建高素质、经验丰富的液冷工程师团队,为客户提供卓越的工程设计和强大的客户服务。

公司产品涵盖:丹佛斯液冷流体连接器、EPDM软管、电磁阀、压力和温度传感器及Manifold。
未来公司发展规划:数据中心液冷基础设施解决方案厂家,具备冷量分配单元(CDU)、二次侧管路(SFN)和Manifold的专业研发设计制造能力。

- 针对机架式服务器中Manifold/节点、CDU/主回路等应用场景,提供不同口径及锁紧方式的手动和全自动快速连接器。
- 针对高可用和高密度要求的刀片式机架,可提供带浮动、自动校正不对中误差的盲插连接器。以实现狭小空间的精准对接。
- 基于OCP标准全新打造的液冷通用快速接头UQD & UQDB ;OCP ORV3盲插快换接头BMQC , 支持全球范围内的大批量交付。

 

Beijing Hansen Fluid Technology Co., Ltd. - 北京汉深流体技术有限公司
Danfoss Data center liquid cooling authorized distributor

Add:Rm2115, Tower C, Wangjing SOHO, Chaoyang district Beijing , China
PO100102
Phone:010-8428 2935 , 8428 3983 , 13910962635
15801532751,17310484595 ,13910122694
13011089770,15313809303
Http://www.hansenfluid.com
E-mail:sales@cnmec.biz

传真:010-8428 8762

京ICP备2023024665号
京公网安备 11010502019740

Since 2007 Strong Distribution & Powerful Partnerships