英伟达(NVDA.US)23Q2业绩会纪要:营收翻番碾压预期 预计明年每个季度增加产品供应
【业绩概况】
我们的第二季度收入达到创纪录的135.1亿美元,环比增长88%,同比增长101%,高于我们预期的110亿美元。
数据中心:收入达到创纪录的103.2亿美元,环比增长141%,同比增长171%。
计算业务收入同比增长近两倍,主要得益于云服务提供商和大型消费互联网公司需求的加速增长。HGX平台是生成式人工智能和大型语言模型的引擎,包括AWS、Google Cloud、Meta、Microsoft Azure和Oracle Cloud在内的大型公司以及越来越多的GPU云提供商正在批量部署基于我们的TensorCoreGPU的HGX系统。在我们的端到端网络平台的推动下,网络业务的收入几乎同比翻了一番。
市场对英伟达™(NVIDIA®)加速计算和人工智能平台有着巨大的需求。我们的供应合作伙伴在提升产能以支持我们的需求方面表现出色。我们的数据中心供应链,包括拥有35000个部件和高度复杂网络的HGX,是在过去十年中建立起来的。我们还为COWOS包装等生产流程中的关键步骤开发了更多的产能和供应商,并对其进行了资格认证。我们预计明年每个季度的供应量都会增加。
按地域划分,美国的数据中心增长最为强劲,因为客户将其资本投资转向了人工智能和加速计算。中国的需求在我们数据中心收入(包括计算和网络解决方案)的20-25%的历史范围内。
关于我们对华出口可能面临的监管加强问题:我们认为目前的监管正在取得预期效果。鉴于全球对我们产品的强劲需求,我们预计,如果对我们的数据中心GPU实施额外的出口限制,不会对我们的财务业绩产生直接的重大影响。然而,从长远来看,禁止向中国销售我们的数据中心GPU的限制措施一旦实施,将使美国产业永久失去在全球最大市场之一竞争和领先的机会。
本季度,我们的云服务提供商对HGX系统的需求异常强劲,因为他们正在进行升级数据中心基础设施,以迎接加速计算和人工智能的新时代。NvidiaHGX平台是近二十年来硅系统、互连、网络、软件和算法全栈创新的结晶。由Nvidia H100 Tensor Core GPU驱动的实例现已在AWS、Microsoft Azure和几家GPU云提供商上普遍提供,不久还将提供其他实例。消费互联网公司也推动了非常强劲的需求。它们在专为人工智能打造的数据中心基础设施上的投资已经产生了可观的回报。例如,META最近强调,自推出reels(短视频)和人工智能推荐以来,用户在Instagram上的花费时间增加了24%以上。企业也在竞相部署生成式人工智能,从而推动了英伟达云计算实例的强劲消费,以及对内部部署基础设施的需求。
无论我们是通过合作伙伴还是直接在云端或内部为客户提供服务,他们都可以通过访问我们的加速库、保留模型和API在英伟达人工智能企业软件上无缝运行应用。我们宣布与Snowflake建立合作伙伴关系,为企业提供加速路径,使其能够使用自己的专有数据创建定制的生成式AI应用程序,所有这些都安全地置于Snowflake数据云中。
借助用于开发大型语言模型的NvidiaNeMo平台,企业将能够直接从Snowflake数据云中为聊天机器人、搜索和摘要等高级人工智能服务定制大模型。几乎每个行业都能从生成式人工智能中受益。例如,微软刚刚宣布的AICo-Pilots可以提高十多亿办公人员和数千万软件工程师的工作效率。法律服务、销售、客户支持和教育领域的数百万专业人士将可以利用人工智能系统对其领域进行培训。
AICo-Pilots将为我们的客户创造数千亿美元的新市场机会。我们看到了生成式人工智能在营销、媒体和娱乐领域的一些最早应用。全球最大的营销和传播服务机构WPP正在利用Nvidia omniverse开发一个内容引擎,使艺术家和设计师能够将生成式人工智能集成到3D内容创作中。WPP设计师可以根据文本提示创建图像,同时利用Nvidia Picasso作为视觉设计定制生成式人工智能模型的代工厂,从Adobe和GettyImages等英伟达合作伙伴那里获得经过负责任训练的生成式人工智能工具和内容。视觉内容提供商Shutterstock也在使用NvidiaPicasso构建工具和服务,使用户能够在生成式AI的帮助下创建3D可视背景。
我们与ServiceNow和埃森哲合作推出了人工智能灯塔计划(AI Lighthouse Program),以快速跟踪企业人工智能能力的发展。人工智能灯塔计划将ServiceNow企业自动化平台和引擎与Nvidia加速计算以及埃森哲咨询和部署服务结合在一起。我们还与HuggingFace合作,简化企业创建新的定制人工智能模型的过程。HuggingFace将为企业提供一项新服务,以训练由NvidiaDGX云驱动的高级人工智能模型。就在昨天,VMware和Nvidia宣布推出一项名为VMwarePrivateAIFoundationWithNvidia的重要新企业产品。这是一个完全集成的平台,具有来自Nvidia的AI软件和加速计算,以及面向运行VMware的企业的多云软件。VMware的数十万企业客户将可以访问定制模型和运行智能聊天机器人、辅助、搜索和总结等生成式人工智能应用所需的基础架构、人工智能和云管理软件。
我们还发布了新款面向企业的Nvidia AI服务器,采用专为行业标准数据中心服务器生态系统打造的新款Nvidia L40S GPU,以及Bluefield-3DPU数据中心基础设施处理器。L40S不受COWOS供应的限制,正在向全球领先的服务器系统制造商发货。
L40S是一款通用数据中心处理器,专为大容量数据中心扩展而设计,可加速最密集的计算应用,包括人工智能培训、三维设计和可视化、视频处理以及Nvidia Omniverse工业数字化。Nvidia AI企业就绪服务器针对VMware Cloud Foundation和私有AI Foundation进行了全面优化。戴尔、惠普和联想等全球领先的企业IT计算公司即将推出近100种配置的面向企业的英伟达AI服务器。
英伟达GH200 Grace Hopper超级芯片将我们基于ARM的Grace GPU与Hoppe rGPU相结合,已进入全面生产阶段,并将于本季度在OEM服务器中推出。它还将向多家超级计算客户发货,包括国家实验室和瑞士国家计算中心。Nvidia和软银正在合作开发一个基于GH200的平台,用于生成式人工智能和5G、6G应用。我们的第二代GraceHopper超级芯片将于2024年第二季度上市。
我们发布了用于巨型人工智能语言模型和数据分析的新型大内存人工智能超级计算机DGX GH200。DGX GH200首次使用了全新的英伟达NVLink交换系统,使其所有256个GraceHopper超级芯片能够作为一个整体协同工作,这与我们上一代仅通过NVLink连接8个GPU相比是一个巨大的飞跃。DGX GH200系统预计将于今年年底上市。GoogleCloud、Meta和微软将是首批访问者。
网络的强劲增长主要由InfiniBand基础设施驱动。凭借端到端优化和网内计算能力,InfiniBand为人工智能提供的性能是传统以太网的两倍多。对于价值数十亿美元的人工智能基础设施而言,InfiniBand所带来的吞吐量提升价值数亿美元,并为网络支付了费用。此外,只有InfiniBand可以扩展到数十万GPU。它是领先的人工智能从业者的首选网络。
对于寻求优化人工智能性能的基于以太网的云数据中心,我们发布了NvidiaSpectrum-X,这是一个加速网络平台,旨在为人工智能工作负载优化以太网。Spectrum-X将Spectrumfor以太网交换机与Bluefield-3DPU结合在一起,实现了比传统以太网高1.5倍的整体人工智能性能和能效。Bluefield-3DPU是一项重大成功。它已获得主要原始设备制造商的资格认证,并在多个CSB和消费互联网公司推广。
游戏:游戏收入24.9亿美元,环比增长11%,同比增长22%。
用于笔记本电脑和台式机的GeForce RTX40系列图形处理器推动了这一增长。客户需求稳健,与季节性保持一致。我们相信,在经历了去年的放缓之后,全球需求已恢复增长。我们面临着巨大的升级机会:我们的装机量中仅有47%升级到了RTX,约20%的GPU具有RTX3060或更高的性能。在RTX4060GPU的带动下,笔记本电脑GPU在关键的返校季实现了强劲增长。搭载NvidiaGPU的笔记本电脑越来越受欢迎,其出货量现已超过全球多个地区的台式机GPU。这可能会改变我们整体游戏收入的实际情况,第二季度和第三季度将成为本年度收入较高的季度,反映出笔记本电脑的返校和假期生产计划。在台式机方面,我们推出了GeForce RTX4060和GeForce RTX4060TiGPU,价格低至299美元。RTX和DLSS游戏生态系统继续扩大。DLSS支持新增35款游戏,其中包括热门游戏。现在有超过330款RTX加速游戏和应用程序。
我们正在将生成式人工智能引入游戏。我们发布了面向游戏的Nvidia Avatar Cloud Engines,这是一种定制的人工智能模型代工服务。开发人员可以使用该服务为非玩家角色赋予智能。它利用了多项Nvidia全方位和人工智能技术,包括Nemo、Riva和Audio2Face。
专业可视化:收入3.75亿美元,环比增长28%,同比下降24%。
这些系统将包括功能强大的RTX系统,最多可配备4个英伟达RTX6000GPU,提供超过5800瓦的人工智能性能和192千兆字节的GPU内存。这些系统可配置英伟达™(NVIDIA®)AIEnterprise或英伟达™(NVIDIA®)OmniverseEnterprise。我们还发布了三款基于ADA一代的全新桌面工作站GPU--NvidiaRTX5000、4500和4000,与上一代产品相比,RT核心吞吐量提高了2倍,AI训练性能提高了2倍。
除了三维设计和内容创建等传统工作负载外,生成式人工智能、大型语言模型开发和数据科学等新工作负载也为我们的RTX技术在专业可视化领域提供了更多机会。在本月早些时候举行的SIGGRAPH大会上,黄晓明的主题演讲的关键主题之一就是图形和人工智能的转换。这就是NvidiaOmniverse的定位。Omniverse是OpenUSD的原生平台。OpenUSD是一种通用交换技术,正在迅速成为3D世界的标准。Adobe、apple、Autodesk、Pixar和Nvidia共同组成了OpenUSD联盟。我们的使命是加速OpenUSD的开发和采用。我们宣布了新的和即将推出的Omniverse云API,包括RunUSD和ChatUSD,以便为OpenUSD工作负载带来生成式人工智能。
汽车业务:收入为2.53亿美元,环比下降15%,同比增长15%。
主要得益于与多家新能源汽车制造商合作推出的基于Drive Orin Soc的自动驾驶平台,同比增长强劲。连续下降反映了整体汽车需求的下降,尤其是在中国。我们宣布与Media Tech合作,为司机和乘客带来全新的车内体验。Media Tech将开发汽车Soc,并整合英伟达GPU芯片的新产品线。双方的合作涵盖了从豪华车到入门级车的广泛领域。
至于其他部分,由于数据中心销售额的增长,GAAP毛利率扩大到70.1%,非GAAP毛利率扩大到71.2%。我们的数据中心产品包含大量的软件和复杂性,这也有助于推动我们的毛利率。GAAP运营费用增长6%,非GAAP运营费用增长5%,主要反映了薪酬和福利的增加。我们以股票回购和现金分红的形式向股东返还了约34亿美元。我们的董事会刚刚批准了250亿美元的股票回购计划,到第二季度末,我们已授权回购剩余的40亿美元股票。
对2024财年第三季度的展望:
对我们的人工智能数据中心平台的需求是巨大的,跨行业和客户基础广泛。我们的需求可见性将延续到明年。在接下来的几个季度里,我们的供应将继续增加,因为我们缩短了周期时间,并与供应伙伴合作增加产能。此外,新的L40s GPU将有助于满足从云到企业的多种工作负载的不断增长的需求。
Q3总营收预计为160亿美元,上下浮动2%。我们预计季度增长主要由数据中心业务驱动,包括游戏等也有贡献。GAAP和非GAAP毛利率预计分别为71.5%和72.5%,上下浮动50个基点。GAAP和非GAAP运营费用预计分别约为29.5亿美元和20亿美元。GAAP和非GAAP其他收入和费用预计将是一项大约发展收入,不包括非效应投资的损益。预计GAAP和非GAAP税率将增加14.5%±1%,不包括任何离散项目。
进一步的财务细节包括首席财务官评论和我们IR网站上提供的其他信息。最后,让我强调一下金融界即将发生的一些事件。我们将参加8月30日在芝加哥的Jefferies Tech Summit, 9月5日在旧金山的Goldman Sachs Tech Conference, 9月6日的Evercore Semiconductor Conference,以及9月7日在纽约的city Tech Conference和9月11日的虚拟AI会议B。
【提问环节】
Q:过去,许多较小的模型推理工作负载都是在A6或Cpu上完成的;有了这些GPT和其他大型模型,就有了新的工作负载,在大型模型推理上加速得非常快。是如何看待小模型推理和大模型推理之间的推理市场细分?产品组合是如何定位的?
A:让我们快速回顾一下这些大型语言模型是相当惊人的。LLM做了几件事,当然,它也有理解非结构化语言的能力。但它学到的核心是人类语言的结构。它已经编码或压缩了大量的人类知识,这些知识是它通过研究的语料库学到的。
现在情况是,你尽可能地创建大型语言模型,然后你从它推导出模型的小版本,这个过程叫做蒸馏。所以当你看到这些较小的模型时,很可能它们是从更大的模型中衍生出来的,或者是从更大的模型中提炼出来的,或者是从更大的模型中学习来的,就像你有教授,老师和学生等等。
一方面,你从一个非常大的模型开始有大量的一般性和泛化,对于很多你没有专门训练它的应用、问题或技能,这些大型语言模型奇迹般地有能力执行,这就是Zero-Shot。另一方面,您希望拥有这些功能和各种计算设备。所以你要做的就是把这些小模型提炼出来,这些较小的模型可能在某一特定技能上有出色的能力,但它们不能很好地概括,它们没有所谓的良好的Zero-Shot能力。它们都有自己独特的功能,但你要从非常大的模型开始。
Q:明年将有多少增量供应上线,鉴于之前说每个季度都会增加?在未来一到两年内,这种需求的可持续性如何?
A:我们确实希望在接下来的几个季度以及下一个财政年度继续增加我供应。但是现在不能用百分比量化表示。这是一项跨越许多不同供应商的工作,但我们对供应商给予支持以及我们与他们一起花了很长时间来改善供应感到非常高兴。
全世界大约有价值1万亿美元的数据中心安装在云端、企业和其他地方。这一万亿美元的数据中心正在向加速计算和生成人工智能过渡。我们同时看到两个平台的转变。
一个是加速计算,因为它是目前最具成本效益、最节能、最高效的计算方式。二是突然之间,生成式人工智能出现了,这个不可思议的应用程序现在给了每个人转变的理由,从通用计算、传统的计算方式到这种新的计算方式——加速计算,做一个平台的转变。数据中心每年大约有2500亿美元的资本支出,本季度QSP收入占比50%,接下来是Consumer Internet Companies / Enterprise / HPC。世界各地的数据中心正在利用这些资本支出,并将其集中在当今计算的最重要的趋势上,即生成式人工智能中的加速计算。所以我认为这不是一个短期的事情。这是一个长期的行业转型。
Q:季度性的数据中心数据,包括系统和GPU的对比,例如DGX与H100?想了解定价等与未来增长推动的关系。
A:在本季度,我们的HGX系统是数据中心的重要组成部分,实现了数据中心的增长,包括Hooper和Ampere架构。
DGX始终是我们将出售的附加系统的重要部分,这对企业客户和许多其他不同类型的客户来说都是巨大的机会,我们甚至在消费者互联网公司中也看到了这一点。现在,我们与DGX一起销售的软件也很重要,但这是我们销售的一部分。
其余的GPU,我们有新的GPU进入市场,我们谈论的L40s,他们将继续增长向前。但是,我们上个季度营收的最大驱动力绝对是HGX系统。
提到H100,H100有35000个零件,价值70英镑,将近1万亿个晶体管的组合,它们的制造是非常密集的。所以我认为我们称之为H100,就好像它是一个从晶圆厂出来的芯片,但H100实际上是DGX和合成世界的超尺度粒子。它们是非常大的系统组件。
Q:软件生态系统的发展以及关键因素?量化一下公司的领先优势和投入?
A:Nvidia AI Enterprise的运行时,这是几乎每个公司都使用的端到端的机器学习,从数据处理、任何模型的训练,你可以在任何框架上做推理和部署,并将其扩展到数据中心,可以是超大规模数据中心的扩展,可以是企业数据中心的扩展。我们在现场有数亿个gpu,在云中也有数百万个gpu,几乎在每一个云上。它可以在单个GPU配置中运行,也可以在每个计算或多个节点上运行多个GPU。它也有多个应用程序、多个会话或每个GPU多个计算实例。从每个GPU多个实例到多个GPU,从多个节点到整个数据中心规模。Nvidia AI Enterprise有大约4500个软件包和软件库,彼此之间有大约10000个依赖项。我们不断更新和优化我们的安装基础,我们的堆栈,这只是让加速计算发挥作用的一个例子。
代码组合的数量和应用程序组合的类型确实非常疯狂。我们花了二十年才走到这一步。但我想描述的可能是我们公司的元素:
最重要的是架构。我们架构的灵活性、多功能性和性能使我们能够做我刚才说的所有事情,从数据处理到训练再到推理,从数据的预处理到数据的后处理、语言的标记化,这样你就可以用它来训练。工作流程的工作量比仅仅训练或推理要大得多。但无论如何,这是人们关注的地方,这很好。但是,当人们真正使用这些计算系统时,它需要很多应用程序。因此,我们的架构组合使我们能够交付最低的拥有成本,原因是我们加速了很多不同的东西。
第二个是安装基础。为什么所有的软件开发人员都来到我们的平台?这样做的原因是因为,软件开发人员寻求一个大的安装基础,这样他们就可以接触到最大数量的最终用户,这样他们就可以建立业务或从他们的投资中获得回报。
第三个特点是可及性。我们今天在云上,既为了公共云,面向公共云,因为我们有很多客户,他们使用很多开发人员,也有很多客户使用我们的平台,云计算服务提供商很高兴把它放在云上,供用户内部消费、开发、培训和操作推荐系统、搜索或数据处理引擎等等,一直到训练和推理,所以我们在云上。
影响力是另一个原因。昨天我们宣布了一个重大消息。Vmware是全球企业的操作系统,我们已经合作了好几年,我们将一起努力,将为全球企业带来生成式人工智能,一直到边缘。由于覆盖范围广,世界上所有的系统制造商都急于在他们的系统中加入英伟达平台。因此,我们有一个非常广泛的分布,从世界上所有的oem和odm等等。
最后,由于我们的规模和速度,我们能够在所有这些不同的使用模式和不同的计算环境中维持这个真正复杂的软件和硬件,网络和计算堆栈。我们可以在加快工程速度的同时做到这一切。我们现在每两年就会推出一个新的架构。我们每六个月就会推出一个新的产品。因此,这些属性使得生态系统能够在我们之上建立他们的公司和业务。这些结合在一起使我们与众不同。
Q:不需要COWOS的L40S对解决供应紧张有多大帮助?能否谈谈该产品的增利或毛利贡献?
A:L40S其实是为不同类型的应用而设计的。H100是为大规模语言模型和处理而设计的,而这不是L40S的重点。L40S的重点是对预训练模型进行微调。它有一个Transformer引擎,性能强大,可以在一台服务器中使用多个GPU。它专为超大规模扩展而设计,这意味着可以轻松地将L40S服务器安装到全球的超大规模数据中心。它采用标准机架、标准服务器,一切都符合标准。因此,它很容易安装。L40S是为全球企业IT系统设计的,这也是惠普、戴尔、联想和其他20家系统制造商与我们合作的原因,他们构建了约100种不同配置的企业服务器,将生成式人工智能带入全球企业。
总之,L40S确实是为不同类型的扩展而设计的。当然依旧是大模型,也是生成式人工智能,但它的用例不同。现在L40S有了一个良好的开端,全球企业和超大规模企业都在争相部署L40S。
Q:当下还有多少未满足的需求?
A:我们对今年和明年的情况非常了解。我们已经在与领先的CSP和数据中心建设者一起规划下一代基础设施。
对需求最简单的理解是,世界正在从通用计算向加速计算过渡。对于企业来说,提高吞吐量、提高能效、提高成本效益的最佳途径就是将资本预算转向加速计算和生成式人工智能。因为这样做,你就能从CPU上卸载大量工作负载,从而提高数据中心可用CPU的数量。你现在看到的公司正在认识到这一转变的开始,并将其资本投资转向加速计算和生成式人工智能。
这不是一个单一的应用在驱动需求,而是一个新的计算平台,一个正在发生的新的计算转型。世界各地的数据中心都在对此做出响应,并以广泛的方式进行转变。
Q:上一季度,CSP约占数据中心收入的40%,消费者互联网约占30%,企业约占30%。这个季度CSP和消费者互联网在你们的业务中可能占更大的比例吗?
A:把计算和网络结合在一起来看的话,我们的大型CSP对第二季度收入的贡献略高于50%,其次是消费互联网公司,最后是企业和高性能计算公司。
Q:给黄仁勋的Q-鉴于您是人工智能的主要推动者,我很好奇,您是否有信心为客户提供足够多的应用或用例,以获得合理的投资回报。换句话说,是否有足够的广度和深度来支持你们数据中心业务的持续增长?
A:我不愿意猜测未来,我将首先从计算机科学原理的角度来回A这个Q题。一段时间以来,人们已经认识到,强制通用计算或大规模使用通用计算不再是前进的最佳途径。它的能耗太高,成本太高,应用性能也太慢。终于,世界上有了一种新的方法。这就是所谓的加速计算,而生成式人工智能为其注入了最后的动力。加速计算可用于数据中心已有的各种不同应用。通过使用它,你可以卸载CPU,节省大量资金,提高吞吐量。这才是行业未来真正的发展趋势。
投资数据中心的最佳方式是将资本投资从通用计算转向生成式人工智能和加速计算。生成式人工智能提供了一种提高生产力的新方法,一种为客户提供新服务的新方法,而加速计算则可以帮助您省钱省电。现在的应用数量成吨——大量的开发人员、大量的应用、大量的库。世界各地的数据中心都认识到,这是部署资源和部署资本的最佳方式。
这对全球的云计算来说都是如此。你会看到一大批新的GPU专业云服务提供商。CoreWeave就是其中一家,他们做得非常好。但你现在看到的是全球各地的地区性GPU专家,因为他们都认识到了同一件事,那就是将资金投入加速计算和生成式人工智能才是未来投资的最佳方式。
但我们也看到,企业也想这样做。但为了让企业做到这一点,你必须支持企业的管理系统、操作系统、安全、软件、定义的数据中心方法,这就是VMware的作用。我们与Vmware合作了数年,使Vmware不仅能支持CPU的虚拟化,还能支持GPU的虚拟化、GPU的分布式计算能力、高性能网络的视频蓝场。我们一直在开发的所有生成式人工智能库现在都将作为一项特殊技能由VMware的Salesforce提供。这项新技能将被命名为VmwarePrivateAIFoundation。结合惠普、戴尔和联想基于L40S的新服务器产品,任何企业都可以拥有一个先进的人工智能数据中心,并能够使用生成式人工智能。
因此,我认为这个问题的答案是,很难准确预测每个季度会发生什么,但我认为现在的趋势非常明显,我们正在看到平台的转变。
Q:能否谈谈网络解决方案与交付的计算的相关率?是否有一半的计算采用了网络解决方案?你们是否可以利用这一点来确定GPU分配的优先次序?
A:我们不会用它来优先分配GPU。我们让客户自己决定使用什么网络。对于那些正在建设大型基础设施的客户来说,Infiniband是不二之选,因为Infiniband的效率非常高。其吞吐量可提高10-20%,这对于价值10亿美元的基础设施而言可以节省大量成本。基本上,联网是免费的。因此,如果您有一个主要用于大型语言模型或大型人工智能系统的单一应用程序,InfiniBand确实是一个不错的选择。
但是,如果你要为很多不同的用户提供主机服务,而以太网又是你管理数据中心的核心,那么我们最近刚刚发布了一个出色的解决方案,叫做Spectrum-X。我们将把InfiniBand的一些功能带到以太网中,这样,我们还能让你在以太网环境中获得出色的人工智能生成功能。
Q:关于DGX云,能否谈谈您所看到的客户的接收情况以及势头如何?
A:DGX云战略能带来几个好处:
1.我们与全球3万家公司合作,其中1.5万家是初创公司,数千家是生成式人工智能公司。其中,增长最快的当然是生成式人工智能。我们正在与全球所有的人工智能初创公司合作。最终,他们都希望能够登陆世界领先的云计算平台。因此,我们建立了DGXCloud,作为世界领先云的一个足迹,这样我们就可以同时与所有人工智能合作伙伴合作,帮助他们轻松登陆我们的云合作伙伴之一。
2.实现我们与全球CSP之间真正紧密的合作关系,提高超大规模云的性能。超大规模云在历史上是为多租户设计的,现在则是为高性能分布式计算(如生成式人工智能)设计的。现在我们和CSPs能够在架构上密切合作、工程师携手合作提高网络性能和计算性能-这真的非常强大,非常了不起。
3.Nvidia自己也使用非常庞大的基础设施。我们的自动驾驶汽车团队、生成式人工智能团队、大模型团队都需要大量的基础设施。如果没有我们的DGX系统,我们的优化编译器就不可能实现,因为如今即使是编译器也需要人工智能,而优化软件和基础架构软件的开发也需要人工智能。众所周知,我们的工程设计使用人工智能来设计芯片。我们的机器人团队、全宇宙团队等等,都需要人工智能。
因此,我们的内部消耗也相当大,我们将其部署在DGX云中。因此,DGF云有多种用例、多种驱动力,而且取得了巨大成功。我们的CSP喜欢它,开发人员喜欢它,我们自己的内部工程师也争相使用它。
现在,我们看到软件业务每年可能有数亿美元的收入,我们正在考虑将Nvidia AI Enterprise纳入我们销售的许多产品中,例如DGX,例如H100的TCIE版本。我认为,即使有了CSP市场,我们也会看到更多的可用性。因此,我们有了一个良好的开端,我相信你们会看到这一势头继续向前发展。
【总结】
一个新的计算机时代已经开始,该行业正在同时经历加速计算和生成式人工智能两大平台转型。数据中心正在从通用计算平台转向加速计算平台,价值数万亿美元的全球数据中心将转向加速计算,以实现性能、能源效率和成本的数量级提升。加速计算使生成式人工智能成为可能,它现在正在推动软件平台的转变,并实现前所未有的新应用。加速计算和生成式人工智能共同推动了广泛的计算机行业平台转变。
我们的需求巨大,我们正在大力扩大产品生产能力。今年剩余时间和明年的供应量将大幅增加。
Nvidia的特别之处在于:
1、架构。Nvidia加速了每个人工智能模型从数据处理、训练、推理、实时语音到计算机视觉、巨型推荐到向量数据库的一切。我们架构的性能和多功能性,转化为最低的数据中心拥有成本和最佳的能源效率安装基础。
2、安装基础。英伟达在全球拥有数亿块与Kuda兼容的GPU。开发者需要庞大的安装基础才能接触到终端用户并发展业务。英伟达是开发者的首选平台。更多的开发人员创建更多的应用程序,使英伟达对客户更有价值。
3、可及性。英伟达的云、企业数据中心、工业边缘pc、工作站、仪器和机器人,每一个都有独特的计算模型和生态系统。像OEM、ODM这样的系统供应商可以自信地投资英伟达,因为我们提供了巨大的市场需求和覆盖范围、规模和速度。英伟达已经实现了巨大的规模,并100%投资于加速计算和生成式人工智能。我们的生态系统合作伙伴可以相信,我们拥有专业知识、专注力和规模,可以提供强有力的路线图,帮助他们成长。
我们大约每六个月升级和添加新产品,而不是每两年升级和添加新产品,以应对不断扩大的生成式人工智能领域。
我们增加H100用于训练和推断大型语言模型的输出时,客户已经在使用我们的Grace Hopper开发下一代加速计算和生成人工智能。我们正在将Nvidia人工智能扩展到世界上需要生成人工智能的企业,但要以隐私、安全和主权为模型。我们也与与世界领先的企业IT公司一起,为全球企业带来生成式人工智能。另外构建Nvidia Omniverse,以实现全球数万亿美元的重工业的数字化,并使其能够使用生成式人工智能来自动化其构建和运营物理资产的方式,并实现更高的生产力。
生成式人工智能,公司可以实现数万亿美元的生产力提升。对于英伟达、我们的客户、合作伙伴和整个生态系统来说,这是一个激动人心的时刻,我们将推动计算领域的这一世代转变,我们期待着下个季度向您通报我们的进展情况。