首页 - 股票 - 美股市场 - 美股评论 - 美股研选 - 正文

英伟达:主权 AI 将带来数十亿收入(FY25Q1 电话会)

来源:海豚投研 2024-05-23 11:01:14
关注证券之星官方微博:
Blackwell 二季度发货

(原标题:英伟达:主权 AI 将带来数十亿收入(FY25Q1 电话会))

英伟达 (NVDA.O) 北京时间 5 月 23 日凌晨,美股盘后发布 2025 财年第一季度财报(截至 2024 年 4 月):

以下为 英伟达 2025 财年第一季度财报电话会纪要,财报解读请移步《英伟达:“宇宙” 最强股,礼包炸不停

一、英伟达财报核心信息回顾:

二、$ 英伟达.US 财报电话会详细内容

2.1、高管层陈述核心信息:

1)经营亮点:

① 数据中心业务:

a. 收入达到 226 亿美元,创历史新高,环比增长 23%,同比增长 427%。增长主要得益于对 NVIDIA Hopper GPU 计算平台持续强劲的需求。

b. 大型 CSP 占数据中心收入近 45%,推理占数据中心收入约 40%。企业客户支持如特斯拉的 AI 训练集群扩展,预计汽车行业成为数据中心最大的企业垂直领域。

② 游戏和 AI PC 业务:收入 26.5 亿美元,同比增长 18%。GeForce RTX GPU 的安装基数超过 1 亿,适合游戏玩家、创作者和 AI 爱好者。

③ 专业可视化业务:收入 4.27 亿美元,同比增长 45%。Omniverse 将推动下一波专业可视化增长,与大型工业软件制造商合作。

④ 汽车业务:收入 3.29 亿美元,同比增长 11%。支持小米推出首款电动汽车 SU7 轿车,使用 NVIDIA DRIVE Orin AI 汽车计算机。

⑤ 全球市场: 各国投资主权 AI,推动数据中心收入多样化。日本投资超过 7.4 亿美元建设主权 AI 基础设施。欧洲国家如法国和意大利,建设强大的云原生 AI 超级计算机。新加坡等地建设 NVIDIA 加速的 AI 工厂。

⑥ 产品更新:

a. Hopper GPU:持续需求增长,H100 推理速度提高 3 倍,H200 即将生产并发货。

b. Grace Hopper 超级芯片:为全球新的超级计算机提供节能 AI 处理能力。

c. InfiniBand:网络同比增长,供应链问题导致适度的连续下降。

d. Spectrum-X 以太网网络解决方案:针对 AI 优化,打开全新市场。

⑦ 新产品发布:

a. NVIDIA Inference Microservices (NIM):提供安全且性能优化的容器,加速生成式 AI 应用程序的部署。

b. Blackwell GPU 架构:训练速度比 H100 快 4 倍,推理速度快 30 倍,总体拥有成本和能耗降低 25 倍。

2)财务要点

1)股东回报:以股票回购和现金股息的形式返还 78 亿美元,宣布股票 10 比 1 拆分并提高股息 150%。

2)二季度指引:

GAAPNon-GAAP
总收入280 亿美元(±2%)
毛利率74.8%75.5%
运营费用40 亿美元28 亿美元
税率17%(±1%)

3)黄仁勋对转型重要性的观点:

随着下一次工业革命的到来,NVIDIA 正与全球的公司和国家合作,引领着从传统数据中心到加速计算的转型,建立 AI 工厂以生产人工智能。AI 的应用正推动各行各业的生产力显著提升,帮助企业在降低成本和能耗的同时扩展收入机会。

云服务提供商作为生成式 AI 的首批采用者,通过与 NVIDIA 合作,已经实现了工作负载的加速,节省了资金和电力。NVIDIA Hopper 平台生成的 Token 正在推动 AI 服务收入的增长,同时 NVIDIA 云实例吸引了大量开发者。

数据中心业务的增长得益于对 Hopper 平台上生成式 AI 训练和推理的强劲需求,这一需求随着模型学习变得更加多模态而持续增长。推理工作负载的快速增长表明,生成式 AI 正在推动全栈计算平台的转型,这将改变计算机交互的方式。

NVIDIA 正在从信息检索模式转向生成答案和技能的计算模式,AI 将理解上下文和意图,具备知识、推理、计划和执行任务的能力。这标志着计算机的工作方式和功能正在发生根本性的变化,从通用 CPU 到 GPU 加速计算,从指令驱动的软件到理解意图的模型,从信息检索到执行技能,从生产软件到生成 Token、制造数字智能。

此外,生成式 AI 已经扩展到消费互联网公司、企业、主权 AI、汽车和医疗保健客户,开辟了多个数十亿美元的垂直市场。Blackwell 平台的全面生产为万亿参数规模的生成式 AI 提供了基础,结合 Grace CPU、NVLink 等技术,提供了更丰富、更完整的 AI 工厂解决方案。公司相信今年的主权 AI 可以带来接近大几十亿美元的收入。

Spectrum-X 为 NVIDIA 打开了全新的市场,将大规模 AI 引入仅使用以太网的数据中心。NVIDIA NIMs 作为新的软件产品,提供企业级优化的生成式 AI,能够在云、本地数据中心以及通过广泛的生态系统合作伙伴网络的 RTX AI PC 上运行。

NVIDIA 已经准备好迎接下一波增长,从 Blackwell 到 Spectrum-X 再到 NIMs,公司正站在这一转型的前沿。

2.2、Q&A 分析师问答

Q:Blackwell 评论说产品已全面投产,这意味着产品不再处于样品阶段。那么,如果产品已经投产,它在客户手中的发货和交付时间会是怎样的?

A:我们将在第二季度开始发货,并在第三季度逐步增加。客户预计将在第四季度完成数据中心的建设。今年我们将看到大量 Blackwell 的收入。

Q:Blackwell 与 Hopper 在部署上有何差异?液态冷却在规模化应用上尚属首次,它在节点和数据中心层面都带来了工程挑战。这些复杂性是否会影响部署过渡期?您如何看待这一过程的发展?

A:Blackwell 平台提供多样化配置,包括空冷、液冷、x86 和 Grace、InfiniBand 以及 Spectrum-X 技术,以及在 GTC 上展示的大规模 NVLink 架构。客户将能够轻松地从 Hoppers 过渡到 H100、H200 和 B100。Blackwell 系统设计上确保了与现有数据中心的电气和机械兼容性,同时保证 Hopper 上的软件堆栈在 Blackwell 上能够高效运行。

我们一直在积极推动整个生态系统为液冷技术做好准备,与各方就 Blackwell 平台进行了深入沟通。CSP、数据中心、原始设计制造商、系统制造商以及供应链合作伙伴,包括冷却和数据中心供应链,都已经为 Blackwell 的到来及其与 Grace Blackwell 200 结合所带来的能力做好了准备。GB200 的性能预计将非常卓越。

Q:您如何确保产品得到充分利用,避免因供应紧张、竞争等因素导致的提前采购或囤积行为?您在系统中建立了哪些机制,以确保货币化与发货增长同步?

A:数据中心对 GPU 的需求巨大,我们每天都在努力满足这一需求。应用如 ChatGPT、GPT-4o、多模态的 Gemini、Anthropic 以及 CSP(CSPs)的工作正在消耗市场上所有的 GPU。此外,还有众多的生成式 AI 初创公司,涉及多媒体、数字角色、设计工具、生产力应用、数字生物学等领域,都在推动对 GPU 的需求。客户迫切要求我们尽快交付系统。

长期来看,我们正在彻底重新设计计算机的工作方式,这将是一个重大的平台转变。计算机将不再是单纯的指令驱动设备,而是能够理解用户意图、进行推理并提供解决方案的智能计算机。这种转变将影响全球的计算架构,甚至 PC 计算堆栈也将经历革命。目前我们所看到的只是冰山一角,我们实验室正在进行的工作以及与全球初创公司、大型企业和开发者的合作将带来非凡的成果。

Q:面对 H200 和 Blackwell 产品的高需求,您预计在转向这些新产品时,Hopper 和 H100 的需求会有所减缓吗?客户是否会等待这些新产品?或者您认为 H100 的需求足以维持增长?

A:本季度 Hopper 需求持续增长,我们预计在过渡到 H200 和 Blackwell 期间,需求将长时间超过供应。各方都急于部署其基础设施,因为他们希望尽快节省成本并实现盈利。

Q:许多云客户在与您合作的同时,也宣布了新的或更新现有内部项目。您如何看待他们作为竞争对手?他们是否主要限于处理内部工作负载,还是未来可能扩展到更广泛的领域?

A:NVIDIA 的加速计算架构在多个方面与竞争对手不同。首先,它能够全面处理从非结构化数据处理到训练准备,再到结构化数据处理、数据框架处理、训练和推理的整个流程。推理已经从简单的检测转变为生成,这需要根本不同的处理架构。我们的 TensorRT-LLM 因此广受好评,因为它使我们的架构在相同芯片上性能提升了 3 倍,这体现了我们架构和软件的丰富性。

其次,NVIDIA 平台的多功能性意味着它可以用于计算机视觉、图像处理、计算机图形学等所有计算模式,是计算成本和能源通胀问题下的可持续解决方案。在通用计算达到极限时,加速计算是前进的唯一途径,它帮助节省计算成本和能源,使我们的平台成为数据中心最低 TCO 的选择。

第三,NVIDIA 在所有云平台中都有布局,为开发者提供了一个无处不在的开发平台,无论是在本地、云端还是各种大小和形状的计算机中。

最后,NVIDIA 不仅制造芯片,还构建了 AI 工厂,这是一个系统问题,需要优化所有芯片作为一个系统协同工作。我们通过系统优化,显著提高了性能,从而为客户创造了巨大的价值。在基础设施成本高昂的今天,最高性能的解决方案也意味着最低的 TCO。

Q:客户目前投入巨资的产品,其竞争力将迅速下降,甚至快于产品的折旧周期。请您谈谈,随着向 Blackwell 过渡,客户将如何处理他们现有的庞大安装基础,这些产品虽然软件兼容,但性能远不及新一代产品。您如何看待客户在这一转型过程中的应对策略?

A:首先,建设进度的不同阶段会带来不同的感受。目前客户仅处于建设初期,因此他们需要尽可能快速地推进。Blackwell 的到来将带来巨大提升,而在此之后,我们还有其他新产品将陆续推出。我们的产品更新遵循一年的节奏,客户可以根据自己的建设进度,持续推进。

其次,客户需要持续投资以实现性能的平均化。他们需要立即盈利,同时节省成本,时间对他们来说极为宝贵。例如,第一个达到新里程碑的公司将宣布一项突破性的 AI 技术,而紧随其后的公司可能只能宣布性能提升 0.3% 的产品。因此,成为持续提供突破性 AI 技术的公司至关重要。

第三,我们能够快速推进并优化技术栈,因为我们构建并监控了整个数据中心。我们能够精确识别瓶颈并进行优化,而不是仅凭猜测。我们交付的系统在规模上表现卓越,因为我们构建了整个系统。

此外,我们能够将构建的 AI 基础设施解构并根据客户需求整合到他们的数据中心中,确保性能最优化。我们对整个数据中心规模的深刻理解,以及从头开始构建每一个芯片的能力,使我们能够确保每一代产品都能发挥最大效用。

Q:目前推动对您解决方案需求的工作负载主要是神经网络的训练和推理,这似乎是一个相对有限的工作负载类型,可能更适合定制解决方案。那么,通用计算框架是否面临更大风险?或者这些工作负载的多样性和快速演变是否足以支持传统的通用计算框架?

A:NVIDIA 的加速计算具有多功能性,但不应被视为通用计算。例如,我们不擅长执行专为通用计算设计的电子表格任务。操作系统的控制循环代码对于加速计算而言也不是最佳选择。我们的平台能够加速多种应用程序,但它们在并行处理和多线程方面有共同特点,如 5% 的代码可能占据了 99% 的运行时间。

我们平台的多功能性和系统级设计是过去十年中众多初创公司选择我们的原因。这些公司的架构通常较为脆弱,面对生成式 AI 或融合模型等新兴技术时,他们需要能够适应整个领域的解决方案,而不是仅针对单一模型。随着 AI 的进步,这些解决方案需要能够适应软件的持续发展和扩展。

我们相信,未来几年内,这些模型将会有百万倍的扩展,我们为此做好了准备。我们平台的多功能性至关重要,而过于脆弱或过于特定的解决方案,如 FPGA 或 ASIC,虽然在特定任务上可能更有效,但它们并不具备通用计算机的广泛适用性。

Q:您能否分享,在供应受限的背景下,您如何看待为中国推出的 H20 产品及其对需求的影响?同时,您如何平衡 H20 与其他 Hopper 产品之间的客户需求?此外,您能否阐述这对下半年销售和毛利率可能产生的影响?

A:我们致力于尊重并服务好每一位客户。尽管我们在中国市场的业务较以往有所减少,且由于技术限制,市场竞争更为激烈,我们仍将尽最大努力满足客户需求。我们对整个市场的总体看法是需求持续超过供应,特别是对于 H200 和 Blackwell 产品,在年底时这一情况将尤为明显。

Q:GB200 系统目前显示出强劲的市场需求。回顾历史,NVIDA 销售了大量的 HGX 板卡和 GPU,而系统业务则相对较小。请问,目前对系统需求增长的原因是什么?是否仅与 TCO 有关?还是有其他因素?

A:我们对 GB200 的销售策略保持不变。我们合理地解构组件,并与计算机制造商整合。今年,Blackwell 平台将推出 100 种不同的计算机系统配置,远超 Hopper 的峰值时期。你将看到包括液冷、空冷、x86、Grace 等多种版本。这些系统由我们众多优秀合作伙伴提供。Blackwell 平台显著扩展了我们的产品线,集成了 CPU 并提高了计算密度。液冷技术将为数据中心节省大量电力成本,同时提高能效,是一个更优的解决方案。我们提供了更多数据中心组件,使数据中心能够获得更高的性能,包括网络交换机和 NIC。我们现在提供以太网,使那些仅熟悉以太网操作的客户能够大规模采用 NVIDIA AI,因为他们拥有相应的生态系统。

总的来说,Blackwell 平台在多方面都更加全面,使我们能够为客户提供更丰富的产品和服务。

Q:尽管 Intel 和 AMD 作为优秀合作伙伴提供了高品质的 x86 解决方案,NVIDIA 是否也能在新兴的 AI 工作负载领域提供独特的优势,特别是在其他竞争对手面临更多挑战的情况下?

A:我们在与 x86 合作伙伴的共同努力下,构建了许多卓越的系统。然而,Grace CPU 使我们能够实现现有系统配置所无法做到的:它与 Hopper 之间的内存系统是协同且互联的,两者之间的互连几乎构成了一个超级芯片,其接口速度达到每秒数太比特。Grace 使用的是首款数据中心级低功耗 LPDDR 内存,这在每个节点上都大幅节省了电力。

此外,我们可以自主设计整个系统的架构,从而创建出具有庞大 NVLink 领域的产品,这对于下一代大型语言模型的推理至关重要。例如,GB200 拥有一个 72 节点的 NVLink 领域,相当于 72 个 Blackwell 连接成一个巨大的 GPU。因此,出于架构、软件编程和系统设计的必要性,我们开发了 Grace Blackwell。

正如您昨天所见,Satya 宣布了下一代 PC——Copilot-Plus PC,它在 NVIDIA RTX GPU 上运行出色,这些 GPU 已经应用于笔记本电脑。同时,它也完美支持 ARM 架构,为 PC 系统创新提供了新的机会。

Q:面对来自 GPU 和定制 ASIC 的日益增长的竞争,您如何看待 NVIDIA 未来的创新速度?在未来十年,我们需要解决哪些挑战?

A:我可以确认,在 Blackwell 之后我们有另一款芯片,并且我们保持一年一更新的节奏。在网络技术方面,我们同样快速迭代,刚刚宣布了面向以太网的 Spectrum-X。我们对以太网的未来发展充满期待,并拥有强大的合作伙伴生态系统支持,包括戴尔等将 Spectrum-X 推向市场的合作伙伴。

我们致力于发展三种关键技术:NVLink 作为单一计算领域的计算结构,InfiniBand 作为计算结构,以及以太网作为网络计算结构。这三个方面都将迅速发展,带来新的交换机、NIC、功能和软件栈。我们将迎来包括新的 CPU、GPU、网络 NIC 和交换机在内的大量芯片更新。

最重要的是,所有这些新技术都将运行 CUDA 和我们的整个软件栈。这意味着,今天对我们软件栈的投资将随着时间自动增值,性能提升。同样,对我们架构的投资将随着其在更多云平台和数据中心的应用而不断扩展。

我相信,我们创新的步伐将提升技术能力,并降低 TCO。NVIDIA 的架构将支持这一新的计算时代,并推动一场新的工业革命,届时我们将不再仅仅制造软件,我们将大规模地制造人工智能代币。

<此处结束>

本文的风险披露与声明:海豚投研免责声明及一般披露

微信
扫描二维码
关注
证券之星微信
APP下载
下载证券之星
郑重声明:以上内容与证券之星立场无关。证券之星发布此内容的目的在于传播更多信息,证券之星对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至jubao@stockstar.com,我们将安排核实处理。
网站导航 | 公司简介 | 法律声明 | 诚聘英才 | 征稿启事 | 联系我们 | 广告服务 | 举报专区
欢迎访问证券之星!请点此与我们联系 版权所有: Copyright © 1996-