英伟达FY2025Q1业绩电话会议高管解读财报

直击业绩会
05-23

英伟达FY2025Q1业绩电话会议 $英伟达(NVDA)$

Simona Jankowski

谢谢。大家下午好,欢迎参加NVIDIA 2025财年第一季度的电话会议。今天和我一起来自NVIDIA的有Jen-Hsun Huang,总裁兼首席执行官,以及Colette Kress,执行副总裁兼首席财务官。

我想提醒大家,我们的电话会议正在NVIDIA投资者关系网站上实时网络直播。网络直播将在我们讨论2025财年第二季度财务结果的电话会议之前提供重播。今天电话会议的内容是NVIDIA的财产。未经我们事先书面同意,不得复制或转录。

在这次电话会议中,我们可能会根据当前的期望做出前瞻性声明。这些声明受到许多重大风险和不确定性的影响,我们的实际结果可能会有实质性的差异。

关于可能影响我们未来财务结果和业务的因素的讨论,请参考今天收益发布、我们最近的10-K和10-Q表格以及我们可能向证券交易委员会提交的8-K表格报告中的披露。

我们所有的声明都是基于2024年5月22日今天,根据目前我们可获得的信息做出的。除非法律要求,我们不承担更新任何此类声明的义务。在这次电话会议中,我们将讨论非GAAP财务指标。您可以在我们的首席财务官评论中找到这些非GAAP财务指标与GAAP财务指标的调和情况,该评论已发布在我们的网站上。

让我来强调一些即将到来的活动。在6月2日星期日,台湾Computex技术贸易展之前,Jensen将在台北亲自举行并实时直播的主题演讲。6月5日,我们将在旧金山参加美国银行技术会议。

就此,让我将电话会议转交给Colette。

Colette Kress

谢谢,Simona。第一季度又是创纪录的一个季度。260亿美元的收入环比增长了18%,同比增长了262%,远远高于我们240亿美元的预期。

从数据中心开始。数据中心收入为226亿美元,创纪录,环比增长了23%,同比增长了427%,这一增长由NVIDIA Hopper GPU计算平台的持续强劲需求推动。计算收入比去年增长了超过5倍,网络收入增长了超过3倍。

数据中心的强劲连续增长是由所有客户类型推动的,以企业和消费互联网公司为首。大型云服务提供商继续推动强劲增长,因为他们在规模上部署和增加NVIDIA AI基础设施,并占我们数据中心收入的40%多的百分比。

在NVIDIA CUDA上训练和推理AI正在推动云租赁收入增长的有意义的加速,为云服务提供商的投资提供即时和强劲的回报。对于在NVIDIA AI基础设施上每花费1美元,云服务提供商有机会在四年内在GPU即时托管收入上赚取5美元。NVIDIA丰富的软件堆栈和生态系统以及与云服务提供商的紧密集成,使最终客户可以轻松地在公共云中使用NVIDIA GPU实例。

对于云租赁客户,NVIDIA GPU提供了训练模型的最佳时间,最低成本训练模型以及最低成本推理大型语言模型。对于公共云服务提供商,NVIDIA为他们带来了客户,推动了收入增长和基础设施投资的回报。领先的LLM公司,如OpenAI、Adept、Anthropic、Character.AI、Cohere、Databricks、DeepMind、Meta、Mistral、xAI等许多其他公司,都在云端构建NVIDIA AI。

企业推动了本季度数据中心的强劲连续增长。我们支持特斯拉将其训练AI集群扩展到35,000个H100 GPU。他们使用NVIDIA AI基础设施为基于视觉的最新自动驾驶软件FSD版本12的突破性性能铺平了道路。

视频转换器虽然消耗了更多的计算,但正在实现显著更好的自动驾驶能力,并推动汽车行业对NVIDIA AI基础设施的显著增长。我们预计汽车将成为今年数据中心的最大企业垂直领域,推动在本地和云消费方面的数十亿美元的收入机会。

消费互联网公司也是一个强劲的增长垂直领域。本季度的一个亮点是Meta宣布了他们的最新大型语言模型Llama 3,该模型是在24,000个H100 GPU集群上训练的。Llama 3为Meta AI提供动力,这是Facebook、Instagram、WhatsApp和Messenger上提供的一种新的AI助手。Llama 3公开可用,已经在各个行业中引发了一波AI开发浪潮。

随着生成性AI进入更多的消费互联网应用,我们预计随着推理规模随着模型复杂性以及用户数量和每个用户的查询数量的增加,我们将看到持续的增长机会,从而带来对AI计算的更多需求。

在过去的四个季度中,我们估计推理推动了我们数据中心收入的约40%。训练和推理都在显著增长。像Meta和特斯拉构建的大型集群是AI生产所必需的基础设施,我们称之为AI工厂。

这些下一代数据中心拥有先进的全栈加速计算平台,数据输入,智能输出。在第一季度,我们与100多个客户合作构建AI工厂,规模从几百到几万个GPU不等,有些达到了10万个GPU。

从地理角度来看,随着世界各国投资主权AI,数据中心收入持续多样化。主权AI指的是一个国家利用自己的基础设施、数据、劳动力和商业网络生产人工智能的能力。

国家正在通过各种模式建立国内计算能力。一些国家正在与国有电信提供商或公用事业公司合作采购和运营主权AI云。其他国家则赞助当地云合作伙伴,为公共和私营部门提供共享的AI计算平台。

例如,日本计划投资超过7.4亿美元给关键的数字基础设施提供商,包括KDDI、樱花互联网和软银,以构建国家的主权AI基础设施。法国的Scaleway,Iliad集团的子公司,正在建设欧洲最强大的云原生AI超级计算机。

在意大利,Swisscom集团将建立国家首个也是最强大的由NVIDIA DGX驱动的超级计算机,以开发首个本地训练的意大利语LLM。在新加坡,国家超级计算中心正在升级为NVIDIA Hopper GPU,而Singtel正在整个东南亚建设NVIDIA加速的AI工厂。

NVIDIA提供端到端计算到网络技术、全栈软件、AI专业知识以及丰富的合作伙伴和客户生态系统,使主权AI和区域云服务提供商能够迅速启动他们国家的AI雄心。与去年相比,我们相信主权AI收入今年可以达到数十亿美元的高个位数。AI的重要性已经引起了每个国家的注意。

我们为中国推出了专门设计的新产品,这些产品不需要出口控制许可证。由于去年10月实施新的出口控制限制,我们在中国的数据中心收入从之前的水平大幅下降。我们预计中国市场将继续保持非常激烈的竞争。

从产品角度来看,大部分计算收入是由我们的Hopper GPU架构推动的。在本季度,Hopper的需求持续增长。由于CUDA算法的创新,我们已经能够在H100上加速LLM推理高达3倍,这可以转化为为像Llama 3这样的流行模型提供服务的成本降低3倍。

我们在第一季度开始对H200进行采样,目前正在生产中,并计划在第二季度发货。第一个H200系统由Jensen交付给OpenAI的Sam Altman及其团队,并为上周他们惊人的GPT-4o演示提供动力。H200的推理性能几乎是H100的两倍,为生产部署提供了显著的价值。

例如,使用具有7000亿参数的Llama 3,单个NVIDIA HGX H200服务器可以每秒提供24,000个token,同时支持超过2400名用户。这意味着对于在当前价格下每花费1美元购买NVIDIA HGX H200服务器,提供Llama 3 token的API提供商在四年内可以产生7美元的收入。

随着软件的持续优化,我们继续提高NVIDIA AI基础设施在提供AI模型方面的性能。虽然H100的供应证明,我们仍然在H200上受到限制。与此同时,Blackwell正在全面生产中。我们正在努力使我们的系统和云合作伙伴在今年晚些时候全球可用。H200和Blackwell的需求远远超过供应,我们预计需求可能会在明年的大部分时间里超过供应。

Grace Hopper超级芯片正在大量发货。上周在国际超级计算大会上,我们宣布全球有九台新的超级计算机正在使用Grace Hopper,今年共提供了200 exaflops的节能AI处理能力。

这些包括瑞士国家超级计算中心的Alps超级计算机,这是欧洲最快的AI超级计算机。英国布里斯托尔大学的Isambard-AI和德国于利希超级计算中心的JUPITER。

我们看到由于其高能效和性能,Grace Hopper在超级计算中的附加率达到了80%。我们还自豪地看到,由Grace Hopper驱动的超级计算机占据了世界上最节能超级计算机的第一、第二和第三位。

InfiniBand推动了网络同比增长的强劲增长。我们经历了适度的环比下降,这主要是由于供应时间的问题,需求远远超过了我们能够发货的数量。我们预计网络将在第二季度恢复环比增长。在第一季度,我们开始发货我们的新型Spectrum-X以太网网络解决方案,该解决方案从一开始就针对AI进行了优化。

它包括我们的Spectrum-4交换机、BlueField-3 DPU和新的软件技术,以克服AI对以太网的挑战,与传统以太网相比,为AI处理提供高达1.6倍的网络性能。

Spectrum-X正在多个客户中增加产量,包括一个庞大的10万个GPU集群。Spectrum-X为NVIDIA网络打开了一个新的市场,并使仅以太网数据中心能够容纳大规模AI。我们预计Spectrum-X在一年内将跃升为一个价值数十亿美元的产品线。

在3月的GTC上,我们推出了下一代AI工厂平台Blackwell。Blackwell GPU架构提供比H100快4倍的训练和30倍的推理,并在万亿参数的大型语言模型上实现实时生成性AI。

Blackwell是一个巨大的飞跃,与Hopper相比,其总拥有成本和能耗降低了25倍。Blackwell平台包括第五代NVLink,带有多GPU脊柱和新的InfiniBand和以太网交换机,X800系列专为万亿参数规模的AI设计。

Blackwell旨在支持数据中心的普遍性,从超大规模到企业,从训练到推理,从x86到Grace CPU,从以太网到InfiniBand网络,以及从空气冷却到液体冷却。Blackwell在推出时将在100多个OEM和ODM系统中提供,是Hopper推出的数量的两倍多,代表了世界上每一个主要的计算机制造商。这将支持在客户类型、工作负载和数据中心环境中的快速和广泛采用。

Blackwell上市客户包括亚马逊、谷歌、Meta、微软、OpenAI、甲骨文、特斯拉和xAI。我们宣布了一个新的软件产品,即NVIDIA推理微服务或NIM的推出。

NIM提供安全且性能优化的容器,由NVIDIA CUDA加速的网络计算和推理软件提供支持,包括Triton推理服务器和TensorRT LLM,以及用于广泛的用例的行业标准API,包括用于文本、语音、图像、视觉、机器人技术、基因组学和数字生物学的大型语言模型。

它们使开发人员能够使用来自NVIDIA、AI21、Adept、Cohere、Getty Images和Shutterstock的领先模型,以及来自谷歌、Hugging Face、Meta、微软、Mistral AI、Snowflake和Stability AI的开放模型,快速构建和部署生成性AI应用程序。NIM将作为我们NVIDIA AI企业软件平台的一部分,用于在云中或在本地生产部署。

转向游戏和AI PC。游戏收入为26.5亿美元,环比下降8%,同比增长18%,符合我们对季节性下降的预期。GeForce RTX Super GPU的市场接受度很高,整个产品系列的最终需求和渠道库存保持健康。

从我们AI之旅的最开始,我们就为GeForce RTX GPU配备了CUDA张量核心。现在拥有超过1亿的安装基数,GeForce RTX GPU非常适合游戏玩家、创作者、AI爱好者,并在PC上运行生成性AI应用程序方面提供无与伦比的性能。

NVIDIA拥有完整的技术栈,可以在GeForce RTX PC上部署和运行快速高效的生成性AI推理。TensorRT LLM现在加速了微软的Phi-3-Mini模型和谷歌的Gemma 2B和7B模型,以及包括LangChain和LlamaIndex在内的流行AI框架。昨天,NVIDIA和微软宣布了Windows的AI性能优化,以帮助在NVIDIA GeForce RTX AI PC上运行LLMs高达3倍的速度。

包括网易游戏、腾讯和育碧在内的顶级游戏开发商正在采用NVIDIA Avatar角色引擎,以创建逼真的化身,改变游戏玩家和非玩家角色之间的互动。

转向ProVis。收入为4.27亿美元,环比下降8%,同比增长45%。我们认为,生成性AI和Omniverse工业数字化将推动专业可视化增长的下一波浪潮。在GTC上,我们宣布了新的Omniverse Cloud API,使开发人员能够将Omniverse工业数字孪生和模拟技术集成到他们的应用程序中。

包括ANSYS、Cadence、达索系统的3DEXCITE、Brand和西门子在内的一些世界上最大的工业软件制造商正在采用这些API,开发人员可以使用它们将空间计算设备(如苹果Vision Pro)流式传输工业数字孪生。Omniverse Cloud API将在今年晚些时候在微软Azure上提供。

公司正在使用Omniverse数字化他们的工作流程。Omniverse强大的数字孪生使纬创,我们的一个制造合作伙伴,将端到端生产周期时间缩短了50%,缺陷率降低了40%。而全球最大的电动汽车制造商比亚迪正在采用Omniverse进行虚拟工厂规划和零售配置。

转向汽车行业。收入为3.29亿美元,环比增长17%,同比增长11%。环比增长是由全球OEM客户的AI驾驶舱解决方案推动的,以及我们自动驾驶平台的实力。同比增长主要是由自动驾驶推动的。我们支持小米成功推出了其首款电动汽车SU7轿车,该车型基于NVIDIA DRIVE Orin构建,这是我们的AI汽车计算机,用于软件定义的AV车队。

我们还宣布了NVIDIA DRIVE Thor的新设计胜利,Orin的继任者,由新的NVIDIA Blackwell架构驱动,与包括比亚迪、小鹏、广汽埃安超能和Neuro在内的几家领先的EV制造商合作。DRIVE Thor计划从明年开始在量产车辆中使用。

好的,转向损益表的其他部分。GAAP毛利率环比增长至78.4%,非GAAP毛利率增长至78.9%,这得益于较低的库存目标。正如上个季度所指出的,第四季度和第一季度都受益于有利的组件成本。从环比来看,GAAP运营费用增长了10%,非GAAP运营费用增长了13%,主要反映了与薪酬相关的成本增加以及计算和基础设施投资的增加。

在第一季度,我们以股票回购和现金股息的形式向股东返还了78亿美元。今天,我们宣布了我们股票的10比1拆分,6月10日作为拆股调整后交易的第一天。我们还将股息增加了150%。

让我来谈谈第二季度的展望。总收入预计将达到280亿美元,正负2%。我们预计所有市场平台都将实现环比增长。GAAP和非GAAP毛利率预计将分别为74.8%和75.5%,正负50个基点,与我们上个季度的讨论一致。

对于全年,我们预计毛利率将在百分之七十多的范围内。GAAP和非GAAP运营费用预计将分别约为40亿美元和28亿美元。全年OpEx预计将增长在百分之四十多的低范围内。

GAAP和非GAAP其他收入和费用预计将分别产生大约的收入,对不起,大约3亿美元的收入,不包括非关联投资的收益和损失。GAAP和非GAAP税率预计将分别为17%,正负1%,不包括任何单独项目。更多的财务细节包含在首席财务官评论和其他信息中,这些信息在我们的IR网站上提供。

现在,我想把它交给Jensen,因为他想发表一些评论。

Jensen Huang

谢谢,Colette。行业正在经历一个重大变化。在我们开始问答之前,让我给你一些关于转型重要性的视角。下一次工业革命已经开始。

公司和国家正在与NVIDIA合作,将价值数万亿美元的传统数据中心基础设施转变为加速计算,并构建一种新型数据中心,AI工厂,以生产一种新商品,人工智能。

AI将为几乎所有行业带来显著的生产率提升,并帮助公司在扩大收入机会的同时更具成本和能源效率。云服务提供商(CSP)是第一批生成性AI的推动者。有了NVIDIA,CSP加速了工作负载以节省资金和电力。由NVIDIA Hopper驱动的token为其AI服务带来收入。而NVIDIA云实例则吸引了我们丰富的开发人员生态系统中的租赁客户。

强劲且加速的需求——对Hopper平台上生成性AI训练和推理的加速需求推动了我们数据中心的增长。随着模型学习成为多模态,理解文本、语音、图像、视频和3D,并学会推理和计划,训练继续扩大。

我们的推理工作负载正在令人难以置信地增长。有了生成性AI,推理——现在大约是大规模快速token生成,已经变得非常复杂。生成性AI正在推动从基础上完全堆栈计算平台的转变,这将改变每一次计算机交互。

从今天的信息检索模型,我们正在转向一个答案和技能生成模型的计算。AI将理解上下文和我们的意图,具有知识,推理、计划并执行任务。

我们正在从根本上改变计算的工作原理以及计算机可以做什么,从通用CPU到GPU加速计算,从指令驱动的软件到意图理解模型,从检索信息到执行技能,并且在工业层面上,从生产软件到生成token,制造数字智能。

Token生成将推动AI工厂多年的建设。除了云服务提供商,生成性AI已经扩展到消费互联网公司和企业,主权AI、汽车和医疗保健客户,创造了多个数十亿美元的垂直市场。

Blackwell平台正在全面生产,并构成万亿参数规模生成性AI的基础。Grace CPU、Blackwell GPU、NVLink、Quantum、Spectrum、混合和交换机的组合,高速互连以及丰富软件和合作伙伴生态系统,让我们能够扩展并提供比前几代更丰富和更完整的AI工厂解决方案。

Spectrum-X为我们打开了一个全新的市场,将大规模AI带到仅限以太网的数据中心。而NVIDIA NIMs是我们的新软件产品,它提供企业级优化的生成性AI,在CUDA加速的任何地方运行,从云端到本地数据中心,再到通过我们广泛的生态系统合作伙伴网络的RTX AI PC。从Blackwell到Spectrum-X再到NIMs,我们为下一波增长做好了准备。谢谢。

(这份记录可能不是100%的准确率,并且可能包含拼写错误和其他不准确的。提供此记录,没有任何形式的明示或暗示的保证。表达的记录任何意见并不反映老虎的意见)

直击业绩会
电话会议高管解读财报、分析师提问第一手情报
免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。

精彩评论

我们需要你的真知灼见来填补这片空白
发表看法