来源:新浪科技
北京时间8月24日上午消息,英伟达今日公布了该公司截至2023年7月30日的2024财年第二财季财报。报告显示,英伟达第二财季营收为135.07亿美元,同比增长101%,环比增长88%,创下历史纪录;净利润为61.88亿美元,同比增长843%,环比增长203%;不按照美国通用会计准则的调整后净利润为67.40亿美元,同比增长422%,环比增长148%(注:英伟达财年与自然年不同步,2024年1月30日至2024年1月29日为2024财年)。英伟达第二财季调整后每股收益和营收远超华尔街分析师预期,对第三财季营收作出的展望也同样远超预期,从而推动其盘后股价大幅上涨逾8%,突破52周最高价。
(资料图)
详见:英伟达第二财季营收135.07亿美元 净利润同比增长843%
财报发布后,英伟达创始人、总裁兼首席执行官黄仁勋和执行副总裁兼首席财务官Colette Kress等高管出席随后召开的财报电话会议,解读财报要点并回答分析师提问。
以下是分析是问答环节主要内容:
TD Cowen分析师Matt Ramsay:我们都注意到大型模型推断应用的迅速增长,投资者也都知道公司在机器学习训练领域牢不可破的市场地位。以往的小型模型推断方面的工作载荷都是在A6和CPU上完成的,随着包括GPT在内的大型模型的出现,推断方面的工作载荷出现了巨幅增长,我知道公司的Grace Hopper超级芯片和其他的一些产品也将满足这些需求,可否请管理层介绍一下如何划分小型模型推断和大型模型推断?公司的产品组合是怎样定位的?
黄仁勋:你提到的这些语言模型都是非常伟大的产品,具备很多核心功能,具有理解非结构化语言的能力,而其核心是对人类语言结构的理解,其中编入了它们所学习到的大量人类知识。
大型语言模型的创建都是求大的,然后才能衍生创建出各类较小型语言模型,本质上是一种类似教师-学生的模式,我们称之为“模型蒸馏”,我们所看到的小型语言模型,很可能都是从大型语言模型衍生,学习和蒸馏提炼而来。
未来的情况可能也是一样,大型语言模型具备一般性,通用型,或者“零样本学习”能力,具备训练应用程序的“神奇能力”,适用于各类计算设备,应用程序开发者就是要实现大型模型的向下“蒸馏”。
小型模型可能也具备某些领域独特的优秀能力,但归纳总结能力不及大型模型,不具备我们所说的“零样本学习”能力。
美银证券分析师Vivek Arya:第一个问题,公司明年增产的幅度大约是多少?因为管理层提到说每个财季都有增长。
第二个问题,公司在超级加速器方面的支出增长并不大,能否请管理层谈谈未来一两年生成式人工智能市场的需求稳定性情况?考虑到公司所暗示的对于第三财季数据中心业务营收120到130亿美元的展望,管理层预计目前已经有多少比例的服务器是人工智能加速器驱动的?未来一两年的需求增长是否可持续?
Colette Kress:我们的供应在未来几个季度到明年的时间里还将持续增长,具体增幅的数字我没有办法预测,因为这涉及到很多供应商,零件,以及包括HGX在内的众多即将发布的新产品,非常感谢供应商长时间以来对我们的支持。
黄仁勋:全球数据中心的总装机金额在1万亿美元上下,包括了云计算,企业和其他方面的用途,这些数据中心正处于向加速计算和生成式人工智能的过渡阶段,这也是目前最重要的两个平台转换。
加速计算是实现成本效益,能源效益和计算效益最大化的方式,而生成式人工智能也意外地推动加速计算的进展,让数据中心运营者更有理由开展平台转换,从一般性用途的计算到加速计算的转换,这是行业发展的长期趋势。
伯恩斯坦研究分析师Stacy Rasgon:管理层能否介绍一下数据中心中,采用英伟达系统和GPU,以及不同类型系统比如DGX和H100,占比分别有多少?定价有什么不同?对于业务增长的驱动起到怎样的作用?
Colette Kress:本财季,HGX系统是我们数据中心业务增长中非常重要的一部分,包括了Hopper 架构的HGX,以及Ampere 架构,我们仍在市场上销售这两种架构,并且都在大幅增长,推动了公司营收的增长,DGX的销售以及附加软件销售的结合也很重要,还有即将上市的GPU新品,包括L40S,未来将带来持续的增长。上一财季我们收入的最大推动力无疑是HGX系统。
黄仁勋:你谈到的H100,我不知道你对这款产品的了解程度,H100其实是由35000多个零件和近1万亿个晶体管组成,重达70磅,我们需要动用很多机器人来安装,因为要能举起70磅的重量,也需要用到超级计算机来进行测试。
我们可以称之为技术奇迹,制造强度非常大。虽然我们将其命名为H100,好像是从晶圆中生产出来的芯片一样,但H100实际上是HGX品牌下的产品,服务于世界各地的超级加速器,是非常大的系统组件。
杰弗瑞分析师Mark Lipacis:公司在市场上的成功取决于软件生态系统以及芯片和硬件平台,请问管理层可否介绍一下软件生态系统的演变以及关键要素?有没有可能量化公司在这一领域的领先地位,比如构建它花了多少资源和人力?另外,如果我们来衡量英伟达平台的价值,硬件差异化与软件差异化所占的比例是多少?
黄仁勋:我来用一些指标说明,英伟达有一个名为企业人工智能(AI Enterprise)的运行时(runtime),是我们软件堆栈的一部分。无论是在数据处理过程中所进行的端到端机器学习,在任何框架上进行的任何模型训练,或是推理和部署,向外拓展到数据中心(比如超级数据中心,或是VMware上的企业数据中心),几乎每家公司都会使用到这个运行时。
客户可以在英伟达的任何GPU产品上执行此操作,我们在市场上拥有数亿个GPU,在云端拥有数百万个GPU,几乎每家云服务中都采用了英伟达的GPU产品。
可以按单个GPU配置运行,也可以按每次计算多GPU配置或多节点运行,每个GPU也可以运行多个活动或者计算情形,从单个GPU运行多种计算情形,到多个GPU、多个节点,再到整个数据中心的拓展。
企业人工智能拥有大约4500个软件包、软件库,并且彼此之间具有大约10000个依赖项。如我此前所言,英伟达对于该运行时的升级和优化将不断持续,它是使计算加速的很好范例。
代码组合的数量之多,以及应用程序组合的类型之繁,确实相当令人咋舌,我们也是花了二十年才走到这一步。
我认为推动公司演进的关键要素可能有以下这么几个。一是架构。英伟达架构的灵活性、多功能性和性能令我们能够胜任前面提到的任务,从数据处理到训练、推理,推理前对数据所进行的预处理,再到后期的数据处理,语言进行标识化,以便用于训练。整个工作流程并非只有训练和推理,强度也要大得多,而且都是我们的工作重点。用户在实际使用这些计算系统的过程中,需要大量的应用程序,我们的架构组合能够加速中心计算程序,以保证最低的运算和保有成本。
二是装机量。很多软件开发者都会寻求英伟达平台的帮助,由于我们有庞大的安装量,通过我们,软件开发者能够接触到最大数量的终端用户,提升业务或获得投资回报。
三是触达范围。我们在云上部署,如此多的开发人员和客户都在使用我们的平台,比如通信服务提供商很乐意上云,包括用于内部使用——开发,培训,操作推荐系统、搜索或者数据处理引擎等等,以及训练和推理,我们在云上,也在企业之中。
昨天,我们宣布了一项非常重大的消息,也值得注意。 VMware可谓是全球企业的操作系统,我们之间的合作也有好几年时间了,双方将生成式人工智能技术带给全球企业。鉴于我们的影响,全球系统开发者都希望将产品中置入我们的平台,来自世界各地的设备厂商和开发公司带来了巨大的分销效应。
最后,我们的规模与速度,决定了公司能够在不同的使用模型和不同的计算环境中,持续发展极其复杂的软硬件、网络和计算堆栈,能够在保质保量的前提下加快工程进度。以往我们大约每两年引入一种新架构,而现在,大约每半年就会推出一种新架构或者新产品。
有了以上所提到的这些特性,客户就更愿意将其公司业务置于我们的生态系统之中,这些因素的结合令英伟达与众不同。
(持续更新中。。。)
Copyright © 2015-2022 华中时尚网版权所有 备案号:京ICP备12018864号-26 联系邮箱:2 913 236 @qq.com