欧宝官方app

当前位置: 首页 > 欧宝官方app > 树枝粉碎机

当前位置首页 > 欧宝官方app > 树枝粉碎机

2025财年Q3电话会:AI业务新增第四位定制化芯片客户 明年将大规模出货

发布时间:2025-09-09 作者: 树枝粉碎机
产品介绍

  近日,博通(AVGO.US)召开2025财年第三季度财务报表电话会。博通指出,预计AI业务的增长将“显著快于”上一季度的预期,根本原因是新增了第四位定制化芯片客户。公司在2026年开始将大规模出货。这位新用户带来了直接且相当可观的需求,再加上公司现在存在三位客户的订单量也在稳步持续增长,这两方面因素共同作用,从根本上改变了公司对2026年业绩前景的看法。

  博通预计,AI芯片(XPU/GPU)和季节性的无线业务收入都将增长,同时软件业务的收入也会略有上升。第三季度通常是公司无线业务全年出货最重的季度。所以,大家会看到无线业务和 AI 芯片(它们的毛利率相比来说较低)的收入贡献在增加,而软件业务的收入则相对来说比较稳定。这正是影响整体毛利率的几个主要动态因素。

  Q&A Q:您提到,现在预计 AI 业务的增长将 “显著快于” 上一季度的预期。这种展望的改变,主要驱动因素是什么?是因为那位新的潜在客户已经转变为正式客户,并带来了那笔 100 亿美元的积压订单吗?还是说,我们现有的三位主要客户的需求也变得比预期更强劲了?

  A:情况是两者兼有。我们上调预期的根本原因,是新增了第四位定制化芯片客户。公司在 2026 年开始将大规模出货。这位新用户带来了直接且相当可观的需求,再加上我们现有三位客户的订单量也在稳步持续增长,这两方面因素共同作用,从根本上改变了我们对 2026 年业绩前景的看法。”

  Q:关于非 AI 半导体业务,您之前提到这部分业务接近周期性底部且复苏缓慢。我们该如何看待这次周期性复苏的力度?鉴于你们 30 到 40 周的交付周期,你们是否在非 AI 业务领域看到了持续的订单改善,这是否预示着复苏势头能延续到下一个财年?

  A:我们对 Q4 的指引确实显示非 AI 业务同比有 1-2% 的微弱增长,但这并不值得过多关注。目前的情况是,除了我们看到的季节性因素外,各个细分市场的表现好坏参半,整体上并没有形成明确的复苏趋势。过去三个季度唯一持续强劲增长的只有宽带业务,而其他领域尚未展现出可持续的上行势头。总而言之,情况没有变得更糟,但我们也没有看到期望中 V 型反弹。我更倾向于认为这将是一场U 型的缓慢复苏,或许要到 2026 年中后期才能看到更有意义的恢复。但就目前而言,前景尚不明朗。

  Q:考虑到你们长达 40 周的交付周期,你们是否已经开始在订单趋势中看到(非 AI 业务的)复苏迹象了?

  A:我们确实看到了。但我们之前也曾经历过类似情况……预订量是增长的,同比增长超过了 20%。当然,这无法与 AI 业务的预订量相提并论,但 23% 的增长仍然相当不错。

  Q:上次您提到 AI 收入在 2026 财年可能增长 60%。在计入新客户带来的 100 亿美元订单后,这个增长预期现在更新为多少?展望 2026 年,AI 业务中 “定制化芯片” 与 “网络芯片” 的收入组合,是会保持和过去一年大致相同的比例,还是会更偏向于定制化芯片?

  A:我需要先澄清一下:上个季度我只是说 2026 年的增长趋势会 ‘反映’2025 年的情况,也就是大约 50%-60% 的同比增长率,我并没有给出一个确切的数字。现在我想表达的,或许更准确的说法是:我们看到的增长正在 ‘加速’,而不仅仅是保持在 50%-60% 的稳定水平。我们预计 2026 年的增长率会超过 2025 年(50-60% 增长)。我知道你希望我给出一个具体的数字,但我们目前还不能提供 2026 年的业绩预测。不过,最好的描述方式是,这将是一次相当可观的提升。

  正如我之前提到的,2026 年增长的一大驱动力将来自 XPU。一方面,我们在这三家原有客户中的份额在持续增加,因为随着他们技术的迭代,对 XPU 的采用会越来越多;另一方面,我们又新增了第四位非常重要的客户。这两个因素叠加,意味着我们的业务将更加偏向 XPU。

  虽然我们也会获得这四大客户的网络芯片业务,但相比之下,来自这四家之外的网络业务占比将会被稀释、显得更小。因此,可以预见,到 2026 年,网络芯片在整个 AI 业务收入中的百分比将会下降。

  Q:关于这 1100 亿美元的未交货订单,这个数字具体是如何组成的?其中,AI 业务、非 AI 业务和软件业务各占多少?这些订单的交付周期大概有多长?

  A:我们通常不会提供未交货订单的具体细分数据,它主要是为了展示公司整体业务的强劲势头。这个数字的增长很大程度上是由 AI 业务驱动的。与此同时,软件业务在稳步增加,非 AI 半导体业务也实现了两位数的增长,但与 AI 的强劲增长相比就相形见绌了。如果非要给一个大致概念的线%)是半导体业务。可以合理地认为,在半导体这部分订单中,AI 相关的业务要远多于非 AI 业务。

  Q: 除了现有的四大客户,与其他三位潜在客户的对话进展怎么样了?您怎么样看待从 2027 年开始,由这些潜在新客户带来的增长势头?它将如何塑造公司未来的发展?

  A:对于这个问题,我不想给出一个主观的判断,因为坦白讲,我无法给出准确的答复。在实际操作中,我们有时会在意想不到的时间点上在生产环节遇到障碍,同样地,项目也可能被推迟。因此,我宁愿不给你更多关于这些潜在客户的细节。我只能告诉你,这些都是真实存在的潜在客户,我们正与他们每一家都保持着非常紧密的合作,他们也都在投入各自的资源进行开发,并且都有明确的意向要进入大规模量产阶段,就像我们今天拥有的这四家客户一样。

  Q:您是否仍然认为,这七家客户(4 家现有 +3 家潜在)合计达到 100 万颗芯片出货量的目标,依然是有效的?

  A:不,我之前说的只针对我们现有的客户。对于那三个潜在客户,我没有任何评论,也无法做出判断。但对于我们现有的这四家客户来说,是的。

  Q:在您已经确认的七家客户(4 家现有 +3 家潜在)之外,您认为这个市场上还有多少值得开发定制 AI 芯片的潜在客户? 您是如何评估这些新增潜在客户的?考虑到您一向对客户数量和其能带来的体量非常挑剔,能否为我们描述一下您看到的、在 “七大客户” 之外的机会格局?

  A:我们将这个市场分为两大块:第一类是自己开发大型语言模型(LLM)的客户。第二类是企业级市场, 即那些为企业运行 AI 工作负载的市场,无论是通过本地部署还是云服务。坦白说,我们不涉足企业级市场,因为这块市场很难切入,我们的组织架构也不是为此设计的。

  我们的重心完全在第一类,也就是大型语言模型(LLM)的开发者。 正如我多次提到的,这是一个非常狭窄、由少数玩家主导的市场。这些玩家正引领着前沿模型的发展,持续向着 ‘超级智能’ 加速迈进。他们不仅需要在训练阶段投入巨资,构建越来越大、越来越强的加速器集群,同时,他们也必须对股东负责,需要创造现金流来维持发展路径。因此,他们也必须大规模投资推理(inference)能力,以将模型商业化变现。这些人就是我们的目标客户。 他们每一家都会在计算能力上投入巨额资金,但这样的玩家数量非常稀少。我已经确定了七家,其中四家已是我们的客户,另外三家是我们在持续接洽的潜在客户。我们在筛选谁符合标准时非常挑剔和谨慎——他们必须正在构建或已经拥有一个平台,并大力投资于领先的大型语言模型。

  我们或许能看到新增一家潜在客户,但即便是做出这个判断,我们也会极其深思熟虑。所以,可以肯定地说,我们现在有七家。就目前而言,这就是我们所拥有的全部了。

  Q: 您提到 Jericho4,英伟达也在谈论 XGS 交换机,听起来这个专为 AI 集群设计的交换机市场正在真正起飞。您能具体谈谈为什么认为这块业务的收入会迎来 “实质性提升” 吗?随着 AI 应用越来越多地转向推理(inferencing),为什么像 Jericho4 这样的交换芯片变得愈发重要?它在推理场景中扮演了怎样的关键角色?

  A:确实,我们先谈 ‘scale-up’(向上扩展),也就是在单个机架内或单个数据中心内部署计算节点;现在我们越来越多地谈论 ‘scale-across’(横向扩展),即跨数据中心的扩展。

  当你构建一个超过 10 万个 GPU 或 XPU(定制 AI 芯片)的超大规模集群时,你很快会遇到物理限制,比如单个数据中心的占地面积或供电能力可能不足以容纳这么多设备。因此,我们正真看到几乎所有的大客户都在采用一种新策略:他们在彼此相近的区域(比如 100 公里范围内)建立多个数据中心站点,然后在这些站点内部署同构的 AI 芯片。

  最酷的部分在于,通过网络将这三四个站点连接起来,让它们像一个单一、巨大的集群一样协同工作。 这就是 ‘scale-across’。

  要实现这种跨地域的连接,就需要一种特殊的网络技术,它必须具备深缓冲(deep buffering)和智能拥塞控制(intelligent congestion control)能力。这其实不是什么新技术,它已经在电信领域(如 AT&T、Verizon)的网络路由中应用了很多年。现在,我们把它用在了 AI 工作负载这个更复杂的场景中。

  在过去的两年里,我们已经以 Jericho3 的形态向几家超大规模客户供货,用于连接他们的集群。随着 AI 训练对带宽的需求不断扩大,我们现在推出了新一代的 Jericho4,它拥有 51.2T 的带宽来处理更大的流量。

  关键在于,这背后是我们在过去一二十年里已经得到充分测试和验证的成熟技术。它运行在以太网上,非常稳定可靠。它不是为了 AI 凭空创造的新东西,而是成熟技术的应用升级。

  Q:您是不是已经将所有前 10,000 名大客户从单一的 vSphere 产品,全面转换到了包含所有组件的 VMware Cloud Foundation(VCF)订阅方案?(上一季度这个比例是 87%,现在完成了多少?)

  A:我们前 10,000 名大客户中超过 90% 已经购买了 VCF(VMware Cloud Foundation)。但我需要澄清一下措辞:他们购买了 VCF 的部署许可,不代表他们已经完成了全部的部署。

  这正是我们工作的第二阶段:与这些客户合作,帮助他们成功地在自己的本地基础设施上部署、运营和扩展他们设想的私有云。这是未来两年的核心工作。随着部署的深入,我们预计 VCF 将在他们的 IT 环境中持续扩张。VMware 故事的第一阶段是说服客户从永久许可转向 VCF 订阅;第二阶段就是帮助客户在 VCF 上真正实现他们期望的私有云价值。 在这个基础上,我们未来还将销售安全、灾难恢复甚至 AI 工作负载等高级服务,前景非常令人兴奋。

  Q:当这些企业客户采用 VMware 方案后,您是否在博通原有的硬件业务(如半导体、存储、网络产品)上,看到了具体、切实的交叉销售增长?

  A:不能。 这两者是完全独立的。事实上,当我们帮助客户虚拟化他们的数据中心时,我们有意识地接受了一个事实:我们正在 ‘商品化’ 底层的硬件,包括服务器、存储乃至网络。这没关系,因为通过这种方式,我们实际上帮助企业降低了在数据中心硬件上的投资成本。

  Q: 除了这些大客户,其他更广泛的企业客户群体对采用 VCF 的兴趣如何?

  A: 我们取得了一些成功,但我们不预期能获得同等程度的成功,主要有两个原因:①对于中小企业来说,部署 VCF 所能带来的总体拥有成本(TCO)节省可能没那么显著。②更重要的是,持续运营和维护这样一个私有云平台所需的技术能力,可能超出了许多中小企业所能承担的范围。

  这部分市场我们仍在学习和探索中。VMware 总共有 30 万客户,我们认为前 10,000 名客户部署 VCF 私有云的价值是巨大的。至于接下来的 2 万到 3 万家中型企业是否会看到同样的价值,还有待观察。

  Q:您预计整体毛利率仅下降 70 个基点(bps),但考虑到贡献更大的 AI 芯片(XPU)和季节性无线业务通常会拉低半导体业务的利润率,同时软件业务收入环比下降,这一下降幅度似乎过小。 您能否帮我理解一下,是哪个部分的强劲表现抵消了这些负面因素,从而使得整体毛利率仅出现如此温和的下降?是软件业务的利润率真的有那么大的提升空间吗?

  A:我们预计AI 芯片(XPU/GPU)和季节性的无线业务收入都将增长,同时软件业务的收入也会略有上升。第三季度通常是我们无线业务全年出货最重的季度。所以,你会看到无线业务和 AI 芯片(它们的毛利率相对较低)的收入贡献在增加,而软件业务的收入则相对稳定。这正是影响整体毛利率的几个主要动态因素。

  Q: 您之前曾将您的 AI 客户大致分为两类:一类是超大规模云服务商(如客户 4 和 5),另一类是原生的大模型开发商(如客户 6 和 7)。您能否帮我们归类一下这次提到的定制 AI 芯片客户属于哪一类?您提到的那笔价值 100 亿美元的 AI 芯片订单,能否透露一下它的交付时间框架大概是多久?

  A: 关于客户分类,其实很难严格区分。最终来看,我们这七个定制芯片客户都与大语言模型(LLM)相关。虽然不是每个客户都像头部云厂商那样拥有庞大的现有平台,但可以预见,它们最终都会建立或拥有自己的平台。所以,区分的界限正变得越来越模糊。

  至于你问到的那笔价值 100 亿美元的订单,我们预计将在 2026 财年的下半年开始交付。更精确一点说,很可能是在 2026 财年的第三季度完成这笔 100 亿美元订单的交付。

  Q: 您如何评价自家 Scale-up 以太网方案目前的市场发展势头?与业界其他方案(如 UALink 和 PCIe)相比,它的竞争力如何?推出具有更低延迟的 Tomahawk 5 Ultra 交换机芯片,对于增强你们 Scale-up 方案的吸引力有多重要?展望未来一年,您认为 Scale-up 以太网在您的 AI 网络业务中,能成长为一个多大的商业机会?

  A: 首先,以太网方案与 AI 加速器(XPU/GPU)的分离程度很高。我们坚信以太网应作为开放标准,让客户拥有选择权,而不是与某个特定的 AI 芯片绑定。

  对于那些使用我们定制 AI 芯片(XPU)的客户,我们在开发过程中会将网络交换机等组件与芯片进行协同优化,确保信号传输的最佳性能。这种手拉手的开发经验,让我们能够非常高效地处理以太网接口。因此,在我们的客户生态中,我们正非常公开地推动以太网成为首选网络协议。

  这种策略效果显著,尤其是在超大规模云服务商(hyperscalers)那里。他们有能力将 GPU 集群的构建与网络架构分开设计,特别是在需要横向扩展(scale-out)的大规模集群中。在这种场景下,我们销售了大量的以太网交换机。我们预计,随着这种解耦的趋势进一步发展,以太网的应用会更加广泛。

  总而言之,无论是在我们自己的生态系统内,还是在那些能够独立构建网络架构的头部云厂商那里,以太网都已经成为事实上的标准。而我们作为该领域的领导者,自然从中受益。

  Q: 您认为像 UALink 或 PCIe 这样的新兴互联技术,有没有可能在 2027 年左右(当它们预计大规模应用时)取代以太网,成为 AI 集群互联的主流方案?

  A: 我对此有偏见,但这偏见源于一个显而易见的事实:以太网久经考验、根基深厚。对于所有超大规模云厂商里设计 AI 数据中心的工程师和架构师来说,以太网是他们最熟悉、最自然的逻辑选择,并且他们已经在广泛使用和聚焦于此。在我看来,舍弃这样一个成熟的生态,去开发全新的、独立的协议,是一件难以想象的事情。

  唯一的争议点在于延迟,这也是 NVLink 等技术出现的理由。但即便如此,降低以太网的延迟也并不困难。我们(以及其他几家厂商)只需对交换机进行调整,就能轻松将延迟做到 250 纳秒以下,比 NVLink 或 InfiniBand 更出色——我们已经做到了。这是我们过去 25 年在以太网领域技术积累的体现。

  因此,我认为以太网是未来的方向。它的开放性也意味着竞争的存在,这正是超大规模云厂商喜欢它的原因之一——他们不希望被单一供应商锁定。我们欢迎这种开放竞争。

  Q:您如何看待来自美国和亚洲其他厂商在定制 ASIC 领域的竞争威胁?您认为这种竞争是在加剧还是在减弱?

  A: 在这个领域,我们保持领先的唯一方法就是持续不断地投入,力求在创新上超越所有对手。

  我们的优势在于:我们是开创定制 AI 芯片(ASIC on Silicon)商业模式的先行者。我们拥有全球顶级的半导体 IP 组合,例如最先进的 SerDes(串行器/解串器)、顶尖的封装技术以及卓越的低功耗设计能力。

  我们能做的就是持续加大投资,以在竞争中保持领先。目前来看,我们在这方面做得还不错。

  Q:您目前有 3 到 4 家主要的云服务商客户正在大规模部署 AI 集群。随着这些数据中心规模越来越大,通过定制化来追求效率和差异化的需求也越来越强,这正是 XPU 的价值所在。基于这个逻辑,我们为什么不应该相信,从长远来看,在您的这几家核心客户内部,XPU 的市场份额最终会超过通用的 GPU 份额呢?

  A: 事实也正朝着这个方向发展。我们正真看到,这是一个循序渐进、持续多年的演进过程。

  我们为现有的每家客户都开发了不止一代、不止一个版本的定制芯片(XPU)。随着每一代新产品的推出,我们观察到一个清晰的趋势:随着客户对芯片性能的信心增强,以及他们的软件栈(如库和模型)在我们的芯片上不断成熟和稳定,他们会显著增加 XPU 的采购和部署量。

  所以,结论是肯定的。在这些已经成功部署了我们方案的客户内部,他们自家芯片(XPU)在其计算版图中所占的比例,毫无疑问会越来越高。我们正亲眼见证这一趋势,这也是我们市场占有率能够持续增长的原因。

二维码
关注我们