首页 资讯 娱乐 新闻 旅游 汽车 电影
你的位置:开云(中国)Kaiyun·官方网站 登录入口 > 资讯 >
热点资讯
相关资讯
资讯

欧洲杯体育Rubin 平台的量产规划仍按原时分表鼓吹-开云(中国)Kaiyun·官方网站 登录入口

发布日期:2025-08-31 07:56    点击次数:87

欧洲杯体育Rubin 平台的量产规划仍按原时分表鼓吹-开云(中国)Kaiyun·官方网站 登录入口

K图 NVDA_0

  好意思东时分周三盘后,英伟达召开2026财年第二季度财务事迹电话会议。财报傲气,公司本季度总营收达467亿好意思元,超此前预期,所有商场平台营收均完毕环比增长。

  在财报电话会上,华尔街分析师们就英伟达在中国商场的机遇伸开辩论。其他问题则聚焦于Blackwell平台的性能上风,以及公司应付潜在ASIC竞争的策略。

  英伟达首席实践官黄仁勋(Jensen Huang)强调了公司在东谈主工智能基础设施规模的率先地位。他示意,AI 驱动的新工业翻新已开启,Blackwell 当作下一代AI平台阐发亮眼,GB300进入全速量产阶段,同期Rubin平台按规划鼓吹。历久看好全球3万亿至4万亿好意思元AI基础设施商场机遇,将持续以全栈式措置有规划牢固行业率先地位。

  他还细腻指出了东谈主工智能所带来的变革性影响,并挑剔谈:“一场新的工业翻新依然开启,东谈主工智能竞赛已然打响。”

  完满笔墨实录 —— 英伟达公司(NVDA)2026 财年第二季度会议

  会议主理东谈主萨拉(Sarah):下昼好。我是萨拉,今天由我担任本次会议的主理东谈主。此刻,迎接诸君参加英伟达2026财年第二季度财务事迹电话会议。为幸免布景杂音热闹,所有深刻已建设为静音情状。在发言嘉宾解释完毕后,将进入问答标准。

  英伟达主理东谈主/投资者关系部托希亚·哈里(Toshiya Hari):谢谢。诸君下昼好,迎接参加英伟达2026财年(关联会议)的电话会议。今天与我一同出席会议的英伟达高管包括:公司总裁兼首席实践官黄仁勋(Jensen Huang),以及实践副总裁兼首席财务官科莱特·克雷斯(Colette Kress)。在此教唆环球,本次会议正在英伟达投资者关系官网进行同步网罗直播。直播回放将持续洞开,直至咱们召开筹商2026财年财务事迹的后续会议。

  本次会议内容的学问产权归英伟达所有,未经自身事前书面许可,不得私自复制或转录。在本次会议过程中,咱们可能会基于现时预期发表前瞻性解释。此类解释受多项首要风险与省略情味成分影响,现实事迹可能与前瞻性解释存在首要各异。筹商可能影响咱们异日财务事迹及业务运营的关联成分探讨,请参考本日发布的财务事迹公告、咱们最新的10-K 和10-Q表格,以及咱们可能向好意思国证券交游委员会(Securities and Exchange Commission)提交的 8-K 表格。

  咱们所有解释均基至本日(2025年8月27日)及目下可获取的信息作出。除法律要求外,咱们不承担更新任何此类解释的义务。在本次会议中,咱们将筹商非公认管帐原则(non-GAAP)财务方针。筹商非公认管帐原则财务方针与公认管帐原则(GAAP)财务方针的退换表,可在咱们发布于官网的首席财务官挑剔中查阅。接下来,我将会议主理权交给科莱特(Colette)。

  英伟达实践副总裁兼首席财务官科莱特·克雷斯(Colette Kress):谢谢你,托希亚。尽管仍需应付持续变化的外部环境,咱们依故旧出了又一个创记载的季度事迹。总营收达 467 亿好意思元,超出咱们此前的预期 —— 所有商场平台的营收均完毕环比增长。数据中心业务营收同比增长 56%;即便H20营收减少40亿好意思元,数据中心业务营收仍完毕环比增长。

  英伟达Blackwell平台营收创下记载,环比增长17%。咱们已于第二季度启动GB300的量产托付。咱们为云处事提供商、新兴云厂商、企业及主权实体打造的全栈式 AI 措置有规划,均为营收增长作出了孝敬。咱们正处于一场将更正所有行业的工业翻新着手,权衡到本十年末,全球 AI 基础设施支拨限制将达到3万亿至4万亿好意思元。

  这类基础设施设立的限制与范围,为英伟达带来了首要的历久增长机遇。GB200 NBL系统得到平常继承,已在云处事提供商(CSPs)和破钞互联网企业部署;包括OpenAI、Meta、Mastral在内的 “灯塔级” 模子研发机构,正以数据中心限制使用GB200 NBL 7,既用于下一代AI模子的闇练,也用于分娩环境中的推理模子部署。全新的Blackwell Ultra 平台本季度阐发一样强盛,营收达数十亿好意思元。

  获利于 GB300 与 GB200 在架构、软件及物理规格上的分享假想,主流云处事提供商向 GB300 的过度过程十分顺畅,可松驰搭建并部署 GB300 机架;这次向 GB300 机架式架构的升级完毕了无缝承接。7 月末至 8 月初,咱们已凯旋完成工场分娩线鼎新,以赈济 GB300 的产能擢升;目下,GB300 已全面进入量产阶段,现时产能已收复至全速水平,每周约分娩 1000 个机架。跟着新增产能慢慢投产,权衡第三季度产能将进一步擢升。本年下半年,GB300 有望完毕平常的商场供应 —— 云处事提供商 CoreWeave 正准备将其 GV300 实例推向商场,该实例在推理模子上的性能已达到 H100的 10 倍。

  相较于上一代 Hopper 平台(前代 AI 狡计平台),GV300 与 DL72 AI 工场在 “每瓦令牌数” 能效上完毕了 10 倍擢升 —— 这一上风将径直滚动为营收,因为数据中心的算力部署时时受电力容量放胆。Rubin 平台(下一代 AI 狡计平台)的各类芯片已进入晶圆制造阶段,包括 Vera CPU(中央处理器)、Rubin GPU(图形处理器)、CX9 Super NIC(超等网卡)、NVLink 144 横向扩展交换机、Spectrum X 横向与跨域扩展交换机,以及硅光子处理器。Rubin 平台的量产规划仍按原时分表鼓吹,将于来岁完毕批量分娩;该平台将成为咱们的第三代 NVLink 机架式 AI 超等狡计机,配套供应链已熟悉且具备限制化智商。

  这一进展使咱们粗略保持 “每年一款新址品” 的迭代节拍,并在狡计、网罗、系统及软件规模持续创新。

  在竞争强烈的商场中,咱们但愿赢得每一位开发者的赈济。若好意思国能积极参与全球竞争,其 AI 时刻体系王人备有后劲成为全球模范。本季度值得珍爱的亮点是,Hopper 平台(前代 AI 狡计平台)及 H200(居品型号)的出货量完毕增长。此外,第二季度咱们还向中国境外不受限的客户销售了约 6.5 亿好意思元的 H20 居品。Hopper 平台需求的环比增长,既体现出加速狡计所救援的数据中心责任负载笼罩范围之广,也彰显了 CUDA 库(英伟达中枢狡计库)与全栈式优化时刻的强壮实力 —— 这些时刻正持续擢升平台的性能阐发与经济价值。

  目下咱们仍在同期托付 Hopper 与 Blackwell 系列 GPU,重点聚焦于得志全球激增的商场需求。云厂商与企业的成本支拨是推动这一增长的中枢能源:仅本年一年,全球在数据中心基础设施与狡计规模的投资限制权衡就将达到 6000 亿好意思元,这一数字在两年内真的完毕翻倍。咱们权衡,受多重成分驱动,AI 基础设施的年度投资将持续增长,这些成分包括:推理型智能体 AI(reasoning agentic AI)对闇练与推理算力提倡数目级擢升的需求、全球列国主权 AI 基础设施设立、企业对 AI 时刻的平常继承,以及物理 AI 与机器东谈主时刻的兴起。Blackwell 平台已成立行业标杆,成为 AI 推感性能的全新模范。跟着推理型与智能体 AI 在各行业的专揽慢慢落地,AI 推理商场正快速蔓延。

  Blackwell 平台的机架式 NVLink(高速互联时刻)与 CUDA 全栈架构通过再行界说推理经济性,顺利应付了商场需求变化。GB300 平台(居品型号)搭载的全新 NV FP4 4 位精度时刻与 NVLink 72 时刻,相较 Hopper 平台完毕了每令牌能效 50 倍的擢升,助力企业以前所未有的限制完毕算力营业化变现。举例,对 GV200(居品型号)基础设施插足 300 万好意思元,可产生 3000 万好意思元的令牌营收,投资陈诉率达 10 倍。自 Blackwell 平台发布以来,英伟达的软件创新后果结合开发者生态系统的强壮救援,已使其性能擢升越过 2 倍。CUDA、TensorRT LLM(谎言语模子推理优化器具)与 Dynamo(动态编译器具)等时刻的持续升级,正不断开释平台的最大效率。

  开源社区为 CUDA 库孝敬的时刻后果,与英伟达的开源库及框架已深度集成到数百万个责任流中。这种英伟达与全球社区结合创新的强壮良性轮回,进一步牢固了英伟达在性能规模的率先地位。英伟达是 OpenAI 模子、数据与软件规模的主要孝敬者之一。Blackwell 平台继承了打破性的数值狡计方法用于谎言语模子预闇练:借助 NV FP4 时刻,GB300 平台的狡计速率相较继承 FP8 时刻的 H100擢升 7 倍,同期兼具 16 位精度的准确性与 4 位精度的速率及效率上风,为 AI 算力效率与扩展性成立了全新模范。

  AI 行业正飞速继承这一翻新性时刻,包括 AWS(亚马逊云科技)、Google Cloud(谷歌云)、Microsoft Azure(微软 Azure)、OpenAI 在内的行业领军企业,以及 Cohere、Mistral、Kimi AI、Perplexity、Reflection、Runway 等机构均已运转专揽。在最新的 MLPerf 闇练基准测试中,GB200 平台包揽所有神气冠军,进一步考证了英伟达的性能率先地位。敬请珍爱将于 9 月发布的 MLPerf 推理测试终结,其中将包含基于 Blackwell Ultra 平台的基准数据。目下,面向全球系统制造商的英伟达 RTX Pro 处事器已全面量产,这类空冷式 PCIe 架构处事器可无缝集成到模范 IT 环境中,既能运行传统企业 IT 专揽,也可赈济首先进的智能体 AI 与物理 AI 专揽。

  已有近 90 家企业(包括多家全球龙头企业)继承 RTX Pro 处事器:日立(Hitachi)将其用于及时仿真与数字孪生时刻研发,礼来(Lilly)用于药物研发,当代(Hyundai)用于工场假想与自动驾驶考证,迪士尼则用于千里浸式叙事内容创作。跟着企业加速数据中心当代化升级,RTX Pro 处事器有望成为营收达数十亿好意思元的居品线。

  主权 AI 正处于快速发展阶段:列国凭借原土基础设施、数据与东谈主才自主研发 AI 的智商,为英伟达创造了首要机遇。英伟达在英国与欧洲的多项象征性神气中均处于中枢性位。欧盟规划投资 200 亿欧元,在法国、德国、意大利与西班牙建立 20 个 AI 工场,其中包括 5 个超等工场,主义是将其 AI 狡计基础设施限制擢升 10 倍。在英国,搭载英伟达时刻的 Umbard AI 超等狡计机已端庄亮相,当作该国性能最强的 AI 系统,其 AI 算力达 21 艾字节浮点运算(exaflops),将加速药物研发、表象建模等规模的打破性进展。权衡本年咱们在主权 AI 规模的营收将越过 20 亿好意思元,较旧年增长逾一倍。

  网罗业务营收创下 73 亿好意思元的记载。AI 狡计集群需求的不断攀升,对网罗的高效性与低延伸提倡了更高要求。在 Spectrum X 以太网、InfiniBand(高性能互联时刻)与 NVLink 等居品需求强盛的推动下,网罗业务营收环比增长 46%,同比增长 98%。咱们的 Spectrum X 增强型以太网措置有规划,为以太网 AI 责任负载提供了最高模糊量与最低延伸的网罗赈济。Spectrum X 以太网业务营收环比与同比均完毕两位数增长,年化营收超 100 亿好意思元。在 Hotchips(半导体行业会议)上,咱们发布了 Spectrum XGS 以太网时刻,该时刻可将多个分布的数据中心整合为千兆级 AI 超等工场。CoreWeave(云处事提供商)是该措置有规划的首批继承者,权衡其 GPU 间通讯速率将完毕翻倍。

  在 XDR 时刻(新一代互联时刻)平常专揽的推动下,InfiniBand 业务营收环比增长近一倍。相较于前代时刻,XDR 时刻的带宽擢升一倍,对模子研发机构而言尤其具有价值。当作全球速率最快的交换机,NVLink 的带宽是 PCIe 5 代的 14 倍,跟着客户部署 Blackwell NVLink 机架式系统,其业求完毕强盛增长。NVLink Fusion 时刻(可赈济半定制化 AI 基础设施)得到商场平常招供:日本行将推出的 Fugaku Next 超等狡计机,将通过 NVLink Fusion 时刻把富士通(Fujitsu)的 CPU 与咱们的架构整合,可运行 AI、超等狡计、量子狡计等多种责任负载。目下,已有越来越多顶尖量子超等狡计与研究中心继承英伟达 CUDA Q 量子狡计平台,Fugaku Next 即是其中之一,其他还包括 ULEC、AIST、NNF、NERSC 等机构;该平台得到 300 多家生态合作伙伴的赈济,包括 AWS、Google Quantum AI、Quantinuum、QEra、SciQuantum 等。

  此外,咱们全新的机器东谈主狡计平台 THOR 现已端庄上市。相较英伟达 AGX Orin(前代机器东谈主狡计平台),THOR 的 AI 性能与能效均完毕数目级擢升,可在旯旮开发及时运行最新的生成式 AI 与推理型 AI 模子,为顶尖机器东谈主时刻提供赈济。英伟达机器东谈主全栈平台的继承率正快速增长:目下已有超 200 万名开发者,以及 1000 多家软硬件专揽与传感器合作伙伴基于咱们的平台开展业务并推向商场。

  各行业的领军企业均已继承 THOR,包括敏捷机器东谈主(Agility Robotics)、亚马逊机器东谈主(Amazon Robotics)、波士顿能源(Boston Dynamics)、卡特彼勒(Caterpillar)、Figure(东谈主形机器东谈主公司)、海克斯康(Hexagon)、好意思敦力(Medtronic)以及元宇宙平台公司(Meta)。机器东谈主专揽对开发端及基础设施端的算力需求呈指数级增长,这将成为咱们数据中心平台历久需求的垂死驱动成分。

  英伟达 Omniverse(数字孪生平台)搭配 Cosmos(配套时刻),是咱们专为机器东谈主及机器东谈主系统研发打造的数据中心级物理 AI 数字孪生平台。本季度,咱们晓喻与西门子大幅拓展合作伙伴关系,以助力打造 AI 自动化工场;包括敏捷机器东谈主(Agile Robots)、神经机器东谈主(Neurorobotics)、优傲机器东谈主(Universal Robots)在内的欧洲率先机器东谈主企业,正基于 Omniverse 平台开发最新创新址品。

  接下来快速概述各地区营收情况:中国商场在数据中心营收中的占比环比着落至低个位数(注:咱们的第三季度事迹权衡未包含向中国客户托付H20居品的关联营收)。新加坡地区营收占第二季度开票营收的 22%,这是因为部分客户将开票业务集合在了新加坡;而新加坡地区数据中心狡计业务开票营收中,超 99% 来自好意思国脉土客户。

  游戏业务营收创下 43 亿好意思元的记载,环比增长 14%,同比激增 49%。这一增长获利于 Blackwell 系列 GeForce GPU的产能擢升 —— 跟着供应量加多,该系列居品销量持续强盛。本季度,咱们推出了 GeForce RTX 5060 桌面级 GPU,为全球数百万玩家带来双倍性能擢升,同期赈济先进的后光跟踪、神经渲染时刻,以及 AI 驱动的 DLSS 4(深度学习超等采样 4)游戏画质增强时刻。

  Blackwell 时刻将于 9 月登陆 GeForce NOW(云游戏处事),这是 GeForce NOW 迄今为止最垂死的一次升级:将提供 RTX 5080 级别的性能,完毕极低延伸,并赈济 5K 分辨率下 120 帧 / 秒的画质输出。此外,咱们还将把 GeForce NOW 的游戏库限制扩大一倍,使其包含超 4500 款游戏,成为全球游戏数目最多的云游戏处事平台。

  对于 AI 嗜好者而言,端侧 AI 在 RTX 系列 GPU 上的运行效果最好。咱们与 OpenAI 合作,对其开源 GPT 模子进行优化,使其能在数百万台赈济 RTX 时刻的 Windows 开发上完毕高质料、高速且高效的推理。借助 RTX 平台体系,Windows 开发者可开发面向全球最大限制 AI PC 用户群体的 AI 专揽。

  专科可视化业务营收达 6.01 亿好意思元,同比增长 32%。增长能源来豪恣端 RTX 责任站 GPU 的平常继承,以及假想、仿真、原型制作等 AI 驱动型责任负载的需求擢升。中枢客户正借助咱们的措置有规划擢升运营效率:动视暴雪继承 RTX 责任站优化创意责任流,而机器东谈主创新企业 Figure AI 则通过 RTX 镶嵌式 GPU 为其东谈主形机器东谈主提供算力赈济。

  汽车业务营收(仅包含车载狡计业务营收)达 5.86 亿好意思元,同比增长 69%,增长主要由自动驾驶措置有规划驱动。咱们已运转托付 NVIDIA Thor SoC(系统级芯片),该居品是 Orin(前代车载狡计芯片)的继任者。Thor 的推出恰逢行业加速向视觉、话语、模子架构、生成式 AI 以及更高阶自动驾驶时刻转型的要害节点,它是咱们迄今为止研发的最顺利的机器东谈主与自动驾驶狡计居品。

  Thor 将为咱们的全栈式自动驾驶软件平台提供算力赈济,该平台目下已进入量产阶段 —— 这不仅为英伟达开辟了数十亿好意思元的新营收机遇,也将擢升车辆的安全性与自动驾驶水平。

  目下简要先容利润表其他神气情况:公认管帐原则(GAAP)毛利率为 72.4%,非公认管帐原则(non-GAAP)毛利率为 72.7%。上述数据包含一笔 1.8 亿好意思元(或 40 个基点)的收益,该收益来自此前为 H20 居品库存计提的准备金开释。若剔除这一收益,非公认管帐原则毛利率仍达 72.3%,依旧超出咱们此前的预期。GAAP 运营用度环比增长 8%,非公认管帐原则运营用度环比增长 6%,用度增长主要源于狡计与基础设施成本飞腾,以及薪酬福利支拨加多。

  为赈济 Blackwell 平台与 Blackwell Ultra 平台(均为新一代 AI 狡计平台)的产能擢升,第二季度库存从 110 亿好意思元环比增至 150 亿好意思元。尽管咱们优先为业务增长及策略举措提供资金赈济,但在第二季度,咱们仍通过股票回购与现款分成向股东返还了 100 亿好意思元。董事会近期批准了一项 600 亿好意思元的股票回购授权,该授权将与第二季度末剩余的 147 亿好意思元回购授权团结见效。接下来,由我先容第三季度的事迹权衡。

  第三季度总营收权衡为 540 亿好意思元,过错幅度 ±2%,这意味着环比增长将超 70 亿好意思元。需再次评释的是,咱们的事迹权衡未包含任何向中国客户托付 H20 居品(居品型号)的关联营收。公认管帐原则(GAAP)毛利率与非公认管帐原则(non-GAAP)毛利率权衡分歧为 73.3% 与 73.5%,过错幅度均为 ±50 个基点。咱们仍权衡,年末非公认管帐原则毛利率将达到 75% 操纵(注:“mid seventies” 指 75% 凹凸的区间)。

  GAAP 运营用度与非公认管帐原则运营用度权衡分歧约为 59 亿好意思元与 42 亿好意思元。全年来看,运营用度同比增长率权衡将达到35%以上(原文为“high thirties range” ),高于咱们此前预期的30%-35%区间(原文为“mid thirties” )。咱们正加速业务投资表率,以垄断异日巨大的增长机遇。若剔除非运动股与公开持股权利证券的损益影响,GAAP 其他进出与非公认管帐原则其他进出权衡均为约 5 亿好意思元的收益。若剔除任何偶发神气,GAAP 税率与非公认管帐原则税率权衡均为16.5%,过错幅度 ±1%。

  更多财务数据详见首席财务官(CFO)挑剔及官网发布的其他信息。终末,我想向金融界东谈主士重点先容行将举行的行为:9 月 8 日,咱们将出席在旧金山举办的高盛科技大会;10 月,咱们将启动年度投资者日行为;10 月 27 日,GTC 数据中心大会将拉开帷幕,黄仁勋的主题演讲定于 28 日举行。

  咱们期待在这些行为中与诸君会面。咱们规划于 11 月 19 日召开电话会议,筹商 2026 财年(关联季度)的事迹。目下会议进入发问标准,主理东谈主,请开启发问搜集。

  会议主理东谈主萨拉(Sarah):谢谢。第一个问题来自坎托·菲茨杰拉德公司(Cantor Fitzgerald)的 C·J·穆斯(C. J. Muse),您的深刻已接通。

  坎托·菲茨杰拉德公司分析师 C·J·穆斯(C.J. Muse):您好,下昼好。感谢您继承我的发问。据悉,从晶圆插足到机架制品的托付周期为 12 个月,您今天在会议中已阐发 Rubin 平台(下一代 AI 狡计平台)将按规划鄙人半年擢升产能。赫然,这类投资多为多年期神气,还需依赖电力、冷却等配套条目。我但愿您能从宏不雅视角启航,谈谈对2026年增长的权衡;若能同期评释网罗业务与数据中心业务的增长贪图,将对咱们极有匡助。谢谢。

  英伟达总裁兼首席实践官黄仁勋(Jensen Huang):好的,感谢 C·J 的发问。从最中枢层面来看,增长驱能源将源于推理型智能体 AI(reasoning agentic AI)的演进与落地。昔日,聊天机器东谈主的交互模式是 “单次触发”—— 你给出一个指示,它生成一个谜底;而目下的 AI 粗略自主开展研究、进行想考并制定有规划,以致会调用器具。这一过程被称为 “深度想考”,时时而言,AI 的 “想考时分” 越长,生成的谜底质料越高。

  相较于 “单次触发” 模式,推理型智能体 AI 模子所需的算力可能达到 100 倍、1000 倍,若波及更复杂的研究任务(如大批文件阅读与认识),算力需求以致可能更高。因此,智能体 AI 的出现使得算力需求大幅增长,其效力也随之权贵擢升。获利于智能体 AI,AI “幻觉”(指 AI 生成作假或作假信息的地方)问题的发生率大幅着落;如今,AI 不仅能调用器具,还能实践具体任务,这为企业专揽掀开了全新空间。

  借助智能体 AI 与视觉话语模子,咱们在物理 AI、机器东谈主时刻及自主系统规模也完毕了打破性进展。昔日一年,AI 时刻取得了巨大越过,而智能体系统与推理系统的出现更是具有翻新性真谛。为收拢这一机遇,咱们研发了 Blackwell NVLink 72 系统 —— 一款机架式狡计系统,这项研发责任已持续数年。

  旧年,咱们完成了从 NVLink 8(节点级狡计,每个节点即为一台狡计机)到 NVLink 72(机架级狡计,每个机架即为一台狡计机)的时刻跃迁。将 NVLink 72 拆解为机架级系统的时刻难度极高,但后果也十分权贵:凭借 NVLink 72,咱们完毕了算力数目级的擢升,进而大幅优化了能效与令牌生成的成本效益。

  对于你提到的历久权衡 —— 异日几年(更具体地说,异日五年),咱们将依托 Blackwell、Rubin 及后续平台持续扩大限制,最终垄断全球 3 万亿至 4 万亿好意思元的 AI 基础设施商场机遇。昔日几年,仅四大云处事提供商(CSPs)的成本支拨就完毕了翻倍,总和已达约 6000 亿好意思元。由此可见,咱们正处于 AI 基础设施设立的起步阶段,而 AI 时刻的越过也切实推动其在各行业的落地专揽,助力措置各类现实问题。

  会议主理东谈主萨拉(Sarah):下一个问题来自好意思国银行证券的维韦克·阿里亚(Vivek Arya),您的深刻已接通。

  好意思国银行证券分析师维韦克·阿里亚(Vivek Arya):感谢您继承发问。科莱特,我想先明确一下中国商场 20 亿至 50 亿好意思元营收的关联情况:要完毕这一主义需要哪些条目?进入第四季度后,中国业务有望达到何如的踏实增长节拍?

  另外,黄仁勋先生,对于竞争样式:您的多家大型客户已启动或规划启动专用集成电路(ASIC)神气。据悉,您的 ASIC 竞争敌手之一博通示意,其 AI 业务来岁有望完毕55%至60%的增长。您觉得是否存在商场重点从英伟达 GPU 转向 ASIC 的可能?从客户反应来看,他们怎样均衡商用芯片(merchant silicon)与 ASIC 的使用比例?谢谢。

  英伟达实践副总裁兼首席财务官科莱特·克雷斯(Colette Kress):感谢维韦克的发问**。现时情况仍存在省略情味,咱们尚无法详情本季度 H20 的最终营收限制。但不错信赖的是,若商场需求进一步加多、销售许可进一步获批,咱们仍可扩大H20的产能并加多托付量。

  英伟达总裁兼首席实践官黄仁勋(Jensen Huang):英伟达的居品与 ASIC 存在本色区别,咱们先从 ASIC 谈起。目下确乎有许多 ASIC 神气启动,也涌现出不少关联初创企业,但最终能完毕量产的居品寥如晨星,中枢原因在于 ASIC 研发难度极高。加速狡计与通用狡计不同:在通用狡计中,你编写软件后只需将其编译到处理器即可运行;而加速狡计是一个 “全栈协同假想” 问题。

  昔日几年,AI 工场的复杂度大幅擢升,因为其需措置的问题限制呈指数级增长 —— 赫然,这是全球迄今为止面对的最复杂的狡计机科膏火事,因此所有这个词时刻栈的假想难度极大。AI 模子的迭代速率也特殊迅猛:从基于自回首的生成模子,到基于扩散的生成模子,再到混杂模子与多模态模子;各类模子层出叠现,有的是 Transformer 架构的养殖版块,有的则是 Transformer 架构的升级版块,数目之多令东谈主却步。

  英伟达的上风之一在于,咱们的居品笼罩所有云平台,与所有狡计机厂商均有合作;从云数据中心到腹地部署、从旯旮开发到机器东谈主,咱们均继承调处的编程模子。因此,全球所有框架赈济英伟达居品是义正辞严的事 —— 当你研发新的模子架构时,遴荐在英伟达平台上发布无疑是最合理的决策。

  咱们的平台具备三大上风:一是粗略适配随心模子架构的演进需求;二是专揽场景全笼罩;三是能加速 AI 全经过 —— 从数据处理、模子预闇练,到基于强化学习的模子微调,再到最终的推理部署。因此,搭载英伟达平台的数据中心不仅效力最高,使用寿命也远长于其他平台。

  此外,我还想补充少许:如今的 AI 系统已成为极其复杂的玄虚性问题。东谈主们时时只珍爱芯片本身 —— 比如环球常筹商的 “某款 ASIC 芯片”,但要研发 Blackwell 与 Rubin 这么的完满平台,咱们需要构建一整套时刻体系:包括能荟萃高速内存的 CPU(智能体 AI 需要大容量 KB 缓存,因此内存需具备极高能效)、GPU、超等网卡(Super NIC)、横向扩展交换机(即咱们的 NVLink)、横向扩展交换机(无论是量子狡计场景的交换机,照旧 Spectrum X 以太网交换机),以及最新推出的跨域扩展交换机(Spectrum XGS)—— 通过这类交换机,咱们可搭建多吉瓦级算力互联的 AI 超等工场。咱们本周已在 Hotchips(半导体行业会议)上发布了 Spectrum XGS 时刻。

  由此可见,咱们所作念的每一项责任都具有极高的复杂度,且均需在超大限制层面完毕。终末我再强调少许:咱们的居品之是以能笼罩所有云平台,是有充分根由的 —— 不仅因为咱们的能效是所有狡计平台中最高的,更因为在数据中心受电力放胆确当下,能效径直决定了营收限制。

  正如我此前所说,从诸多层面来看,“采购量越大,增漫空间越大”。由于咱们的 “每好意思元性能比”(perf per dollar)极具竞争力,客户也能得到极高的利润率。因此,无论是从增长机遇照旧毛利率后劲来看,英伟达架构都是最优遴荐。

  恰是基于这些原因,全球所有云厂商、初创企业与狡计机厂商均遴荐英伟达 —— 咱们为 AI 工场提供的是确凿全面的全栈式措置有规划。

  会议主理东谈主萨拉(Sarah):下一个问题来自梅利厄斯公司(Melius)的本·赖茨斯(Ben Reitzes),您的深刻已接通。

  梅利厄斯公司分析师本·赖茨斯(Ben Reitzes):黄仁勋先生,我想就您提到的 “本十年末全球数据中心基础设施支拨将达 3 万亿至 4 万亿好意思元” 这一预测向您发问。此前您曾说起一个约 10 亿好意思元限制的数字,我紧记那似乎仅针对 2028 年的狡计规模支拨。结合您以往的表述来看,3 万亿至 4 万亿好意思元的总支拨限制,似乎意味着狡计规模的支拨可能会越过 20 亿好意思元。我想阐发这一认识是否正确,以及这是否是您对本十年末商场情况的判断。

  另外,我还想了解:您觉得英伟达在这一商场限制中能占据多大份额?目下,英伟达在所有这个词基础设施狡计规模的份额依然绝顶高,是以想听听您的认识。同期,要完毕 3 万亿至 4 万亿好意思元的支拨主义,您是否惦记存在某些瓶颈问题,比如电力供应方面的放胆?绝顶感谢。

  英伟达总裁兼首席实践官黄仁勋(Jensen Huang):好的,谢谢。如你所知,仅全球四大超大限制云厂商(hyperscalers)的成本支拨,就在两年内完毕了翻倍。跟着 AI 翻新全面鼓吹、AI 竞赛端庄打响,这类成本支拨已增至每年 6000 亿好意思元。从目下到本十年末还有五年时分,而这 6000 亿好意思元还只是是四大超大限制云厂商的支拨限制。

  除此除外,其他企业也在设立腹地部署(on prem)的数据中心,全球各地的云处事提供商也在持续插足设立。目下,好意思国的狡计资源约占全球总量的 60%。历久来看,东谈主工智能的发展限制与增长速率理当与 GDP 相匹配,虽然,AI 本身也将推动 GDP 加速增长。因此,英伟达在 AI 基础设施规模的孝敬占据着垂死地位。

  以一座 1 吉瓦(gigawatt)限制的 AI 工场为例,其设立成本时时在 500 亿至 600 亿好意思元之间(过错幅度 ±10%),而英伟达在其中的孝敬占比约为 35%(过错幅度 ±5%)—— 也就是说,在一座耗资 500 亿至 600 亿好意思元的 1 吉瓦数据中心中,英伟达关联居品与处事的价值占比约为 35%。

  虽然,需要评释的是,咱们提供的并非只是是 GPU。环球都知谈,英伟达以研发并发明GPU而有名,但在昔日十年间,咱们已顺利转型为一家 AI 基础设施企业。仅打造一套 Rubin AI 超等狡计机,就需要六种不同类型的芯片;若要将其扩展到 1 吉瓦限制,则需要数十万个 GPU 狡计节点以及大批机架开发。

  因此,英伟达本色上已是一家 AI 基础设施企业。咱们但愿能持续为行业发展孝敬力量,让 AI 的专揽价值愈加平常;同期,提高 “每瓦性能比”(performance per watt)也至关垂死 —— 正如你所说起的,异日全球 AI 基础设施设立或 AI 工场设立,很可能恒久面对电力供应的放胆。是以,咱们需要尽可能挖掘 AI 工场的能效后劲。

  英伟达居品的单元能耗性能,径直决定了 AI 工场的营收增长 —— 两者存在径直关联。以一座 100 兆瓦(megawatt)的工场为例,其 100 兆瓦电力对应的性能水平,决定了工场的营收限制,本色上就是 “工场每 100 兆瓦电力产出的令牌数目”。此外,咱们居品的 “每好意思元性能比”也极具竞争力,这使得客户能得到极高的毛利率。

  不外无论怎样,这些(电力、成本等)都是异日行业发展需要应付的放胆成分。总体而言,异日五年全球 AI 基础设施支拨达到 3 万亿至 4 万亿好意思元的限制,是一个相当合理的预测。

  会议主理东谈主萨拉(Sarah):下一个问题来自摩根士丹利(Morgan Stanley)的乔·摩尔(Joe Moore),您的深刻已接通。

  摩根士丹利分析师乔·摩尔(Joe Moore):您好,感谢您继承发问。着手恭喜贵公司再行掀开中国商场机遇。我想了解中国商场的历久出息:您此前似乎提到,全球约半数 AI 软件关联业务集合在中国。那么,英伟达在中国业务的增漫空间有多大?另外,最终推动 Blackwell 架构得到对华出口许可,对英伟达而言有多垂死?

  英伟达总裁兼首席实践官黄仁勋(Jensen Huang):据我估算,本年中国商场为咱们带来的机遇限制约为 500 亿好意思元。若咱们能凭借具备竞争力的居品充分垄断这一机遇,且鉴于全球 AI 商场全体均在增长,权衡中国商场限制每年有望完毕50%操纵的增长。中国事全球第二大狡计商场,同期亦然 AI 研究东谈主员的荟萃地 —— 全球约50%的AI 研究东谈主员来自中国,绝大多数率先的开源模子也降生于中国。因此,我觉得好意思国科技企业能否进入这一商场,具有十分垂死的真谛。

  无人不晓,开源时刻虽降生于某一个国度,却能处事于全球。中国涌现的开源模子质料极高:举例 DeepSeek已得到全球珍爱,Q1、Kimi、豆包等模子的阐发也十分出色;此外,还有大批全新的多模态模子、优秀的话语模子不断推出。这些开源模子极地面推动了全球企业对 AI 的继承 —— 因为企业但愿构建属于自身的定制化特别软件栈,而开源模子对企业而言至关垂死;对于一样但愿搭建特别系统的 SaaS(软件即处事)企业,开源模子也具有垂死价值,同期它还为全球机器东谈主时刻的发展提供了强壮助力。

  由此可见,开源时刻真谛首要,而好意思国企业能否参与其中也一样要害。中国商场的限制异日将十分弘大,咱们正与好意思国政府关联部门疏通,强调好意思国企业进入中国商场的垂死性。因此,我觉得英伟达将 Blackwell 架构引入中国商场的可能性是切实存在的。接下来,咱们会不断倡导这一举措的合感性与垂死性 —— 毕竟,这有助于好意思国科技企业在 AI 竞赛中保持率先、赢得竞争,并推动好意思国时刻体系成为全球模范。

  会议主理东谈主萨拉(Sarah):下一个问题来自富国银行(Wells Fargo)的艾伦·雷克斯(Aaron Rakers),您的深刻已接通。

  富国银行分析师艾伦·雷克斯(Aaron Rakers):您好,感谢您继承发问。我想追想一下本周发布的 Spectrum XGS(英伟达新一代以太网时刻)关联公告。目下以太网业务年化营收已打破 10 亿好意思元,我想了解您觉得 Spectrum XGS 的商场机遇体目下哪些方面?咱们是否不错将其认识为 “数据中心互联层” 措置有规划?另外,在所有这个词以太网居品组合中,您怎样看待该时刻的商场限制?谢谢。

  英伟达总裁兼首席实践官黄仁勋(Jensen Huang):目下咱们提供三类网罗时刻,分歧对应 “横向扩展”“纵向扩展” 与 “跨域扩展” 三种场景:

  第一类是 “纵向扩展” 时刻,用于构建限制最大的诬捏 GPU(图形处理器)与诬捏狡计节点。NVLink(高速互联时刻)在这一规模具有翻新性真谛 —— 恰是凭借 NVLink 72,Blackwell 架构智力完毕相较于 Hopper 架构 NVLink 8 的跨越式性能擢升。现时,AI 模子正朝着 “深度想考”(long thinking)、智能体推理系统(agentic AI reasoning systems)主义发展,而 NVLink 时刻能权贵擢升内存带宽,这对推理系统而言至关垂死,因此 NVLink 72 的价值极为杰出。

  第二类是 “横向扩展” 时刻,咱们提供两种措置有规划:一是 InfiniBand(高性能互联时刻),它无疑是延伸最低、抖动最小、横向扩展智商最强的网罗时刻,但对网罗料理专科智商要求较高。对于超等狡计场景及顶尖模子研发机构而言,量子 InfiniBand 是无可争议的首选 —— 若对 AI 工场进行性能基准测试,继承 InfiniBand 的工场将展现出最好性能;二是针对 “数据中心已继承以太网架构” 的客户,咱们推出了全新的 Spectrum 以太网时刻。该时刻并非通用型居品,而是集成了多项专为低延伸、低抖动及拥塞规矩假想的新时刻,其性能能无尽接近 InfiniBand,远超商场上其他以太网措置有规划,咱们将其定名为 Spectrum X 以太网。

  第三类是 “跨域扩展” 时刻,即 Spectrum XGS—— 这项千兆级时刻可将多个数据中心、多个 AI 工场荟萃成一个 “超等工场”(巨型系统)。赫然,网罗时刻在 AI 工场中具有中枢性位:遴荐相宜的网罗时刻,能将 AI 工场的模糊量效率从 65% 擢升至 85% 以致 90%,这种性能飞跃真的能让 “网罗成本的插足产生‘零成本’般的陈诉”。

  现实上,遴荐相宜的网罗时刻所带来的陈诉将远超预期 —— 正如我此前所说,一座 1 吉瓦限制的 AI 工场设立成本可能高达 500 亿好意思元,而若能将工场效率擢升十几个百分点,就能产生价值 1020 亿好意思元的现实收益。因此,网罗时刻是 AI 工场的要害组成部分,这亦然英伟达在网罗规模插足大批资源的原因,一样亦然咱们五年半前收购 Mellanox(迈络想,网罗开发厂商)的中枢考量。

  正如咱们此前说起的,Spectrum X 以太网业务目下已造成相当限制,而该业务推出至今仅一年半时分,号称 “爆款” 居品。异日,NVLink(纵向扩展)、Spectrum X 与 InfiniBand(横向扩展)、Spectrum XGS(跨域扩展)这三类时刻都将领有开阔出息。

  会议主理东谈主萨拉(Sarah):下一个问题来自伯恩斯坦研究公司(Bernstein Research)的史黛西·拉斯金(Stacy Raskin),您的深刻已接通。

  伯恩斯坦研究公司分析师史黛西·拉斯金(Stacy Raskin):您好,感谢您继承我的发问。我有一个更偏向具体业务的问题想求教科莱特(Colette)。从事迹权衡来看,贵公司下季度营收权衡环比增长超 70 亿好意思元,其中绝大部分增长权衡来自数据中心业务。我想了解,这 70 亿好意思元的增长应如安在 Blackwell 平台、Hopper 平台与网罗业务三者之间分派?

  我的初步判断是,本季度 Blackwell 平台营收可能达到 270 亿好意思元,较上季度的 230 亿好意思元有所增长;而在 H20 居品(型号)孝敬后,Hopper 平台营收仍能看护在 60 亿至 70 亿好意思元。请问 Hopper 平台的强盛阐发是否会持续?对于怎样拆分这 70 亿好意思元增长在上述三项业务中的占比,您能否提供一些想路?

  英伟达实践副总裁兼首席财务官科莱特·克雷斯(Colette Kress):史黛西,感谢你的发问。着手,对于第二季度到第三季度的增长组成,Blackwell 平台仍将占据数据中心业务增长的绝大部分。但需介怀的是,这一增长不仅会带动狡计业务,也将推动网罗业务 —— 因为咱们销售的大型系统中,均集成了黄仁勋先生刚才提到的 NVLink(高速互联时刻)。

  Hopper 平台目下仍在持续出货,包括 H100、H200 等居品(型号),不外这些居品均属于 HCX 系统(英伟达数据中心狡计系统)。总体而言,Blackwell 平台仍将是数据中心业务的中枢增长驱能源,这一趋势会不断保持。目下咱们暂无对于季度末事迹拆分的更多具体细节,但不错明确的是,Blackwell 平台仍将是营收增长的主要孝敬者。

  会议主理东谈主萨拉(Sarah):下一个问题来豪恣盛(Goldman Sachs)的吉姆·施耐德(Jim Schneider),您的深刻已接通。

  英伟达主理东谈主 / 投资者关系部托希亚·哈里(Toshiya Hari):下昼好,感谢您继承发问。您此前已明晰发达了推理型模子(reasoning model)的商场机遇,也较为详备地先容了 Rubin 平台(下一代 AI 狡计平台)的时刻参数。不外,能否请您进一步评释对 Rubin 平台后续居品迭代的认识?该平台能为客户带来哪些新增智商?

  此外,从性能与功能擢升的角度来看,相较于 Blackwell 平台的升级幅度,Rubin 平台的擢升幅度会更大、更小,照旧基本相当?谢谢。

  英伟达总裁兼首席实践官黄仁勋(Jensen Huang):好的,谢谢发问。对于 Rubin 平台,咱们目下保持着每年一次的居品迭代周期。遴荐这一周期的中枢原因是,咱们但愿通过持续迭代匡助客户裁减成本、最大化营收。

  当咱们擢升 “每瓦性能比”(即单元能耗的令牌生成量)时,本色上是在径直推动客户的营收增长。对于推理型系统而言,Blackwell 平台的 “每瓦性能比” 相较于 Hopper 平台完毕了数目级的擢升。由于所稀有据中心本色上都受电力容量放胆,因此,继承 Blackwell 平台的数据中心,无论是相较于咱们过往的居品,照旧现时商场上的其他措置有规划,都能完毕营收最大化。

  此外,Blackwell 平台的 “每好意思元性能比”(即单元成本插足的性能)也极具上风,这能匡助客户擢升毛利率。只有咱们能为每一代居品注入创新理念,就能通过推出新架构,持续擢升客户的营收智商、AI 功能水平与毛利率。

  因此,咱们建议合作伙伴与客户按年度节拍贪图数据中心设立。Rubin 平台将包含多项创新,刚才我稍作停顿,是因为从目下到来岁发布前,我还有宽裕时分向环球详备先容 Rubin 平台的各项打破性进展 —— 目下它已储备了诸多出色的时刻理念,我很期待分享,但目下还不行通晓更多,后续会在 GTC 大会(英伟达全球开发者大会)上详备评释。

  不外,在接下来的一年里,咱们将全力鼓吹现时居品的产能擢升,包括 Grace Blackwell 平台、GB200(居品型号),以及最新的 Blackwell Ultra 平台、B300(居品型号),并加速数据中心部署。赫然,本年已是创记载的一年,我权衡来岁也将是创记载的一年。

  一方面,咱们将持续擢升 AI 性能,朝着东谈主工超等智能(artificial superintelligence)的主义迈进;另一方面,咱们也将不断增强超大限制云厂商(hyperscalers)的营收生成智商。

  会议主理东谈主萨拉(Sarah):终末一个问题来自瑞银集团(UBS)的蒂莫西·阿库里(Timothy Arcuri),您的深刻已接通。

  瑞银集团分析师蒂莫西·阿库里(Timothy Arcuri):绝顶感谢。黄仁勋先生,我想就您此前说起的一个数据向您发问 —— 您说 AI 商场的复合年增长率(CAGR)为 50%。我想了解,您对来岁商场情况的可预料性有多高?对于贵公司数据中心业务来岁的营收增长而言,50% 的复合年增长率是否是一个合理的主义?我觉得贵公司的增长至少应与这一复合年增长率持平。

  英伟达总裁兼首席实践官黄仁勋(Jensen Huang):嗯,我觉得看待这个问题的最好模样是,咱们已从大型客户那儿得到了对于来岁的合理预测,这些预测限制相当可不雅。此外,咱们仍在不断赢得新业务,商场上也持续涌现大批初创企业。别忘了,旧年专注于 AI 原生业务的初创企业得到的融资额就达 1000 亿好意思元;而本年尚未终结,这一融资额已升至 1800 亿好意思元。

  若聚焦 “AI 原生” 规模 —— 那些已产生营收的头部 AI 原生初创企业,旧年营收总和为 20 亿好意思元,本年则达到 200 亿好意思元。来岁营收较本年再增长 10 倍,并非不可能。同期,开源模子的发展正劝诱大型企业、SaaS(软件即处事)公司、工业企业及机器东谈主企业加入 AI 翻新,这将成为另一大增长来源。

  无论是 AI 原生企业、企业级 SaaS 厂商、工业 AI 规模,照旧初创企业,咱们都能看到商场对 AI 的酷好与需求极为隆盛。想必诸君都有所耳闻,现时商场的热点话题是 “所有居品都已售罄”——H100售罄,H200也售罄。大型云处事提供商(CSPs)以致运转从其他云厂商那儿租借算力,而 AI 原生初创企业更是在争相获取算力,以闇练其推理型模子。可见,现时商场需求确乎绝顶强盛。

  从历久权衡来看,昔日两年,仅大型超大限制云厂商(hyperscalers)的成本支拨就完毕了翻倍,目下每年景本支拨限制约为 6000 亿好意思元。对咱们而言,在这 6000 亿好意思元的年景本支拨中占据可不雅份额,并非不切现实。因此,我觉得在异日数年,乃至所有这个词本十年期间,咱们都将面对增速迅猛、限制弘大的增长机遇。

  终末我总结一下:Blackwell 平台是全球期待已久的下一代 AI 平台,它完毕了跨时间的性能飞跃。英伟达的 NVLink 72 机架式狡计时刻具有翻新性真谛,其推出恰逢那时 —— 因为推理型 AI 模子正推动闇练与推感性能需求完毕数目级增长。Blackwell Ultra 平台正全速擢升产能,商场需求特殊隆盛。

  咱们的下一代平台 Rubin已进入晶圆制造阶段,该平台包含六款全新芯片,且所有芯片均已在台积电(TSMC)完成流片(taped out)。Rubin 将成为咱们的第三代 NVLink 机架式 AI 超等狡计机,权衡其配套供应链将更为熟悉,且具备全面限制化智商。

  在本十年末之前,跟着全球 AI 工场设立限制达到 3 万亿至 4 万亿好意思元,Blackwell 与 Rubin 这两大 AI 工场平台将持续扩大部署限制。客户正在设立限制越来越大的 AI 工场:从 “数十兆瓦数据中心搭载数千块 Hopper 系列 GPU”,发展到 “100 兆瓦设施搭载数十万块 Blackwell 系列 GPU”;不久之后,咱们还将看到 “数百万块 Rubin 系列 GPU 为多吉瓦、多站点的 AI 超等工场提供算力赈济”。每一代平台的推出,都只会进一步推动需求增长。

  从 “单次交互聊天机器东谈主”,到粗略自主研究、制定有规划并调用器具的 “推理型智能体 AI”,时刻演进推动闇练与推理算力需求完毕了数目级跃升。如今,智能体 AI 已日趋熟悉,并为企业商场掀开了新空间 —— 企业可围绕业务经过、居品与处事,构建特定规模或企业专属的 AI 智能体。

  物理 AI 时间已然驾临,这为机器东谈主、工业自动化等规模开辟了全新商场。异日,每个行业、每家工业企业都需要设立两类工场:一类用于制造实体机器,另一类用于构建其机器东谈主 AI 系统。本季度,英伟达不仅完毕了营收破记载,也在发展历程中达成了一个超卓的里程碑。

  异日机遇巨大,一场新的工业翻新已然开启,AI 竞赛已然打响。感谢诸君本日参与会议,期待鄙人一次财报电话会议与环球重逢。谢谢。

  (本文由东谈主工智能扶植完成)





Powered by 开云(中国)Kaiyun·官方网站 登录入口 @2013-2022 RSS地图 HTML地图