用户头像
Doloresy
 · 江苏  

$Arista Networks(ANET)$

Arista Networks 公布 2025 年第三季度财报

概述

Arista Networks 公布了 2025 年第三季度财报,表现强劲:每股收益(EPS)0.75 美元,高于市场预期的 0.71 美元。当季营收达到 23.1 亿美元,高于预期的 22.6 亿美元。尽管业绩“超预期”,Arista 股价在盘后下跌 2.56%,收于 152.98 美元,投资者对更广泛的市场走势及潜在未来挑战作出反应。

关键要点(Key Takeaways)

Arista Networks 2025 年 Q3 EPS 为 0.75 美元,较预期高 5.63%。

本季度营收 23.1 亿美元,同比增加 27.5%。

公司推出面向 AI 网络的新产品,并扩大全球布局。

前瞻指引显示显著增长:2025 财年营收目标为 88.7 亿美元。

公司表现(Company Performance)

Arista Networks 在 2025 年第三季度表现出色,营收同比增长 27.5%。公司聚焦创新,尤其在 AI 网络领域,巩固了其市场竞争地位。与 NVIDIA 和 OpenAI 等科技巨头的战略联盟进一步提升了其行业地位。

财务要点(Financial Highlights)

营收:23.1 亿美元,同比 +27.5%。

每股收益:0.75 美元,同比 +25%。

Non-GAAP 毛利率:65.2%。

净利润:9.623 亿美元,占营收 41.7%。

现金及投资:101 亿美元。

盈利与预期(Earnings vs. Forecast)

Arista Networks 的 EPS 为 0.75 美元,高于 0.71 美元的市场预期,惊喜幅度为 5.63%。营收也高于预期的 22.6 亿美元,录得 23.1 亿美元(+2.21%)。这一强劲表现与公司历史上经常超预期的趋势一致。

展望与指引(Outlook & Guidance)

Arista Networks 预计将保持强劲增长轨迹:2025 财年营收指引为 88.7 亿美元,同比增幅 26%–27%。公司目标在 2026 财年实现 106.5 亿美元营收,驱动因素包括不断扩大的 AI 网络能力以及在地理扩张与产品创新上的战略投资。

管理层评论(Executive Commentary)

CEO Jayshree Ullal 强调,公司致力于在 106.5 亿美元营收目标中实现 27.5 亿美元(2.75B)的贡献,凸显 AI 在 Arista 增长战略中的重要性。CTO Ken Duda 表示,公司在 AI 领域的成功源于其硬件平台的强大性能与效能。

风险与挑战(Risks and Challenges)

供应链波动:零部件交付周期较长可能影响出货安排。

市场竞争:AI 和云网络领域的竞争加剧。

宏观经济:宏观压力可能影响客户支出。

产品结构毛利:产品组合的变化可能影响利润率。

问答(Q&A)

在财报电话会上,分析师询问了由于供应链问题导致的出货波动,以及公司面向特定客户群体的 Blue Box 策略。管理层还讨论了前端与后端网络的融合及其对利润率的影响。

全文实录——Arista Networks(ANET)2025 年第三季度:

未具名主持人(电话会议主持人):感谢各位今天下午参加我们的第三季度财报电话会议。在 AI 时代,Arista 连续第 19 个季度实现历史新高的增长。本季度我们实现了接近 23.1 亿美元的营收,其中软件与服务约占 18.7%。在有利的产品组合和库存收益的影响下,我们的 Non-GAAP 毛利率为 65.2%。按地区划分,美洲业务强劲,接近 80%;国际业务约 20%。在 9 月 11 日的分析师日上,我们展示了“网络服务 AI(networking for AI)”与“AI 赋能网络(AI for networking)”,继续在数据驱动的网络平台上保持动能。与许多人不同,我们的 EtherLink 产品组合强调加速网络(accelerated networking)方法,为零接触自动化、可信安全、流量工程与遥测提供单一网络控制点,显著提升计算与 GPU 利用率。Arista 的“卓越 AI 网络”将提升 AI 加速器的性能。

当然,我们与全球 GPU 市场领导者 NVIDIA 进行互操作;但我们也认识到自身有责任构建广泛且开放的生态系统,其中包括 AMD、Anthropic、ArmBroadcom、OpenAI、Pure Storage 与 Vast Data 等,以共同打造 21 世纪的现代 AI 技术栈。该技术栈包含计算、存储(记忆)与坚实的网络基础三位一体,以运行训练与推理模型。我们 2025 年“AI 合计”15 亿美元的目标(涵盖后端与前端)进展顺利。我们如今在新的 106.5 亿美元营收目标中,承诺实现 27.5 亿美元的贡献,意味着 2026 年 20% 的营收增长。我们在云与 AI 巨头、近云服务商以及园区企业中均在加速前进。AI 建设的规模需求显然前所未有,我们正着眼于让数据在多平面网络中更快流动。

人才与领导力是我们成功的关键。为此,上一季度我们宣布任命 Todd Nightingale 为总裁兼首席运营官。本次,我们也庆祝 Ken Duda 的晋升,他将出任总裁兼首席技术官,不仅负责工程,也将分管我们面向 AI 与云的重点客户群。正如许多人所知,自 20 多年前创立 Arista 以来,Ken 一直是架构、创新与文化的坚定推动者。Ken,请你说几句?

Ken Duda(Arista Networks 总裁兼首席技术官):谢谢你,Jayshree。在 Arista 工作,最棒的事情之一就是能构建一些史上最具雄心的网络:超低延迟交易网络、全球规模的云网络,以及最近的多租户 AI 网络。我们在 AI 领域的成功来源众多:硬件平台的强大算力与性能、我们在网络织构架构上的创新、面向 AI 的遥测与自动化部署、我们享有盛誉的高质量软件,以及我们在 Ultra Ethernet 联盟(UEC)与 ESUN(Ethernet Scale-Up Networking)上的领导力,最重要的是,我们与全球最大 AI 公司的合作方式。合作一直是 Arista 成功的关键,AI 革命亦不例外。

除了极具乐趣外,这些合作也为公司带来了收益:既有可观的收入机会,也让我们能在可能性的边界上学习与创新。随后,我们把所学应用于更广泛的网络市场,帮助更庞大、更多样化的客户群,构建业界最先进、最可靠的基础设施。举例来说,我们的 EtherLink 分布式交换织构为全球一些最大规模的 AI 织构提供动力。它也是各类数据中心的优秀底层网络,为包括 AI 在内的所有工作负载,提供无热点的全线速、拍比特(petabit)规模的网络。EtherLink 速率正从今天的 800 千兆比特提升到不久后的 1.6 太比特,同时依托我们的 EOS 操作系统与 NetDI 诊断基础设施,实现顶级的软硬件可靠性。

Arista AVA(Autonomous Virtual Assist,自治虚拟助手)使用 AI 帮助客户设计、构建与运营他们的网络。AVA 同时利用我们的内部知识库,以及存储于 NetDL(Arista 的网络数据湖)中的客户数据。此外,AVA 具备“智能体式(agentic)”能力,可主动排障。近期其他创新包括 SWAG(交换机聚合技术),它在提供园区堆叠特性的同时,具备故障隔离与在线软件升级,实现最大化的正常运行时间。通过在众多用例上运行统一的 EOS 与统一的 NetDI 平台,我们能在追求云、企业与 AI 市场的同时,高效复用中心工程投入,保持不同细分市场之间的对齐。我非常感激在机遇空前的时代,能够带领 Arista 的工程与云团队。

未具名主持人(电话会议主持人):谢谢你,Ken,并祝贺你 21 年的非凡职业生涯——这次晋升实至名归。你打造了“始终在线、具备弹性的叶脊架构”,既服务于 AI 工作负载的网络,也通过 AVA 将 AI 带入网络领域。在 Oracle AI World 上,Ken 受邀正式宣布我们与 Oracle Accelerate 的合作。这建立在与 Oracle 长达十年的合作之上:从 Exadata 的 InfiniBand 迁移到以太网的 AI 网络、到 RoCE(收敛以太网上的 RDMA)、再到云 AI 领域的多平面网络,以确保在 GW 级(千兆瓦级)AI 数据中心按时完成作业。作为我们“Leadership 2.0”的一部分,我们构建并聚焦了一个云与 AI 的使命型组织,如今由业界老将 Tyson Lamoreaux 领导,并向 Ken 与 Hugh 汇报。我非常高兴正式欢迎 Tyson 加入 Arista。

Tyson Lamoreaux(Arista 云与 AI 团队负责人):谢谢你,Jayshree,也感谢这个问题。能够在 Arista 动能如此强劲的时刻加入团队,真是令人难以置信。自加入以来,与客户共处是我最优先的事项。我对这些合作关系之牢固印象深刻——既包括我们长期的“巨头”客户,也包括新兴客户。我们在下一代架构上与他们深入合作:他们的云网络、前端、后端、纵向扩展(scale-up)、横向扩展(scale-out)与跨域扩展(scale-across)——可以说是“无处不在”。这正转化为大量的胜出成果,而我必须说,这比我来之前预期的要多得多。

我非常喜欢我们对开放标准与创新(如 ESUN 与 UEC)的持续投入。当然,我们也在解决那些“此时此地且永恒存在”的现实问题:通过构建硬件系统、软件以及一切,向客户交付卓越的能效、可靠性、密度、可观测性与可管理性。我认为我作为“建设者与运营者”的背景,与帮助团队提前洞察客户需求、交付对的产品,这两者非常契合。最后我想强调的是文化。我是说,这里太棒了。以客户为中心、对质量的承诺、对创新与卓越运营的坚持,都是一流的,这让我有宾至如归的感觉。谢谢你,Jayshree。交还给你。

未具名主持人(电话会议主持人):谢谢你,Tyson,欢迎回家。有了 Tyson 的资历与履历,Arista 真正准备好以系统级视角,覆盖云与 AI 创新的多重面向,把硅片、硬件、软件、电缆、光模块与机柜融为一个整体平台。在 OCP(Open Compute Project,开放计算项目)上,Arista 与 12 位重要的行业专家一道,发布了首个 ESUN(Ethernet Scale-Up Networking,以太网纵向扩展网络)规范。我们从四家共同发起者开始,如今正扩大参与阵容,以便构建正确的、可互操作的纵向扩展标准。尽管总会有“噪音”,Arista 也在持续澄清我们在 whitebox(白盒)领域的角色,以及我们如何像过去十多年那样与之共存。概念很清楚:这关乎“good、better、best”——在某些简单用例中,通用白盒“够用”;但在其他情况下,客户希望获得“更好”的 Arista 蓝盒,配备最先进的硬件与内建的 NetDI,实现信号完整性、物理/无源/有源组件与故障排查的管理;而“最佳”的当然是 Arista 自有品牌的 EOS 平台,提供终极的卓越体验。

我们身处一个不可否认且爆发式的 AI 大趋势之中。随着 AI 模型与 token 在规模与复杂度上不断增长,Arista 正在驱动 AI XPU 的网络扩展能力,承载功率与性能。简而言之,token 必须“映射”为太瓦级功率、万亿次浮点(teraflops)与太比特(terabits)。我们正经历网络的“黄金时代”,未来几年 TAM 将超过 1,000 亿美元。我们的数据中心战略,从客户端、分支到园区再到数据中心,如今延伸到云与 AI 中心——这对公司的使命一以贯之。我们将继续投资于客户、领导者、合作伙伴,尤其是我们的创新技术。接下来请 CFO Chantelle 介绍财务细节。

Chantelle Breithaupt(Arista Networks 首席财务官):谢谢你,Jayshree。很高兴看到 AI 生态的拓展,我也很高兴 Arista 能成为创新引擎。下面转入 Q3 业绩:总营收为 23 亿美元,同比 +27.5%,高于我们 22.5 亿美元的指引上限。所有产品板块均实现强劲增长。本季度国际营收 4.683 亿美元,占总营收 20.2%,低于上季度的 21.8%。Q3 整体毛利率为 65.2%,高于我们 64% 的指引;较上季度的 65.6%略低,但高于去年同期的 64.6%。同比毛利率提升主要由企业板块的强势驱动。本季度运营费用为 3.833 亿美元,占营收 16.6%,高于上季度的 3.706 亿美元。研发投入为 2.514 亿美元,占营收 10.9%,上季度为 2.433 亿美元。销售与营销费用为 1.095 亿美元,占营收 4.7%,上季度为 1.053 亿美元。两项环比增长主要由新增人手驱动(包括 VeloCloud 并购在内)。我们的行政管理费用为 2,240 万美元,占营收 1%,上季度为 2,200 万美元。

本季度经营利润为 11.2 亿美元,占营收 48.6%。其他收益与费用为正 9,890 万美元,有效税率为 21.2%。由此本季度净利润为 9.623 亿美元,占营收 41.7%。摊薄后股本为 12.77 亿股,对应摊薄后每股收益 0.75 美元,同比 +25%。

资产负债表方面,期末现金、现金等价物与投资合计 101 亿美元。就董事会于 2025 年 5 月批准的 15 亿美元回购计划而言,尚有 14 亿美元可在未来季度执行。未来回购的具体时点与规模将取决于市场与业务状况、股价与其他因素。第三季度经营性现金流约 13 亿美元,体现了我们强劲的业务模型表现。应收账款天数(DSO)为 59 天,较 Q2 的 67 天改善,主要受开票线性度影响。库存周转 1.4 次,与上季度持平。库存余额增至 22 亿美元,高于上期的 21 亿美元,其中大部分增加来自评估类库存的上升,表明我们新品与新用例的采纳在增加。本季度末的采购承诺与库存合计 70 亿美元,高于 Q2 末的 57 亿美元。未来数季我们仍会看到一定波动,这反映了新品需求与主要供应商交付周期的共同作用。

我们的递延收入余额为 47 亿美元,高于 Q2 的 41 亿美元。截至 Q3,递延收入多数为产品相关。与上季度相比,产品递延收入增加约 6.25 亿美元。随着我们处于新品爬坡、赢得新客户、扩展新用例(包括 AI)的阶段,导致与特定客户相关的验收条款(acceptance clauses)增加,产品递延收入的波动性也随之提高。正如过去数季所述,递延余额可能在季度层面出现显著变动,这与底层业务驱动无关。应付账款天数为 55 天,较 Q2 的 65 天下降,反映库存入库与付款时点的变化。资本开支为 3,010 万美元。自 2024 年 10 月起,我们在圣克拉拉的新设施扩建已启动初始施工,预计 2025 财年相关资本开支约 1 亿美元。

Q3 的强劲表现凸显了我们的战略进展,这也让我们对 2025 财年剩余时间以及 2026 年保持信心。先给出 Q4 展望:营收 23–24 亿美元,预计云、AI、企业与服务商市场将延续增长;毛利率 62%–63%(含可能已知的关税情景);运营利润率约 47%–48%;有效税率约 21.5%;摊薄股本约 12.81 亿股。

将 Q4 展望纳入,2025 财年指引如下:全年营收增速约 26%–27%,中点为 88.7 亿美元;我们有望在园区板块实现 7.5–8 亿美元,AI 中心至少 15 亿美元。毛利率展望约 64%(含可能已知的关税情景),运营利润率约 48%,体现 Arista 强劲的运营执行与可扩展的业务模型。

对于我们在 9 月分析师日给出的 2026 年展望,基本保持不变:全年营收增长约 20%,绝对金额更高至 106.5 亿美元,其中园区目标 12.5 亿美元,AI 中心目标 27.5 亿美元。毛利率区间预计约 62%–64%(受客户组合驱动),运营利润率约 43%–45%(为实现战略目标预留投入空间)。

总之,动能仍在延续。我们与客户互动的广度与深度从未如此强劲与令人兴奋。延续 Arista 的风格,我们保持务实,同时也认识到未来几年蕴含的潜力。热烈欢迎 Tyson 加入团队,并祝贺 Chantelle 获得实至名归的晋升。现在把时间交还给 Rudy 进入问答。

Rudolph Araujo(投资者关系负责人):谢谢你,Chantelle。现在进入 Arista 的问答环节。为让更多人参与,请大家尽量将提问限制在一个问题。感谢理解。Krista,请开始。

Jayshree Ullal(董事长兼 CEO):谢谢。要提问的话,请在电话键盘上先按“”,再按“1”。若想撤回问题,同样请按“”再按“1”。提问前请拿起听筒以确保最佳音质。第一位提问来自美国银行的 Tal Liani。你的线路已开通。

Tal Liani(美国银行:你好。我想问一个关于环比或指引的问题,本质上更基础,但我会用数字支撑。如果看去年,增长非常一致。我知道年内后三个季度,环比增速在 6.5% 到 7.5% 之间。今年你们从进 Q(注:指 Q1)时 10% 的增长,降到 5%,现在只有 1.6%。因此存在放缓。问题是,这种放缓背后的驱动是什么?我们对明年应如何理解?这意味着什么?我们是否需要担心未来的增长?谢谢。

Jayshree Ullal:谢谢,Tal。先回答你最后一句:我们对需求没有担忧。我认为出货与营收跟随的是我们的供应。若我们能够完成出货,那么营收就会像你看到的 Q2 一样,超越我们的任何指引。但是,有时尽管有需求,我们也无法把所有东西都发出去,于是你会看到相应的变化。我不建议过度解读季度间的波动;我会说,我们对需求方面从未像现在这样有信心。这也反映在我们继续坚持 20% 增长上,尽管绝对金额从 87.5 亿上升到 88.7 亿。所以需求没变,只是出货有波动。

Tal Liani:明白了。

Rudolph Araujo:下一位是富国银行的 Aaron Rakers。请提问,你的线路已开通。

Aaron Rakers(富国银行:谢谢。我还是围绕模型来问。本季度的毛利率指引是 62%–63%。如果我们假设你们的服务毛利在 81%–82% 区间,那似乎意味着产品毛利会跌到 60% 以下。所以能否拆解一下本季度毛利率指引的驱动?有关关税的影响有多大?还有别的因素吗?这会不会改变我们对未来的预期?谢谢。

Jayshree Ullal:好的,Aaron。首先,我认为你高估了我们的服务与软件毛利,但不论如何,我们确实存在产品毛利的组合差异:当云与 AI 巨头拉动量的时候,产品毛利显著低于 60%;而在企业客户那里,毛利显著更高。两者加上服务的平均,得出你看到的数字。因此,当组合向云与 AI 的方向大幅倾斜时,毛利会承压。但总体上,我们把控得很好。如今由 Todd 领导的制造团队在这方面做得非常出色。所以,纪律性与组合共同发挥作用。我不认为这与前些年有任何不同——当我们拥有更重的 AI 与云组合时,我们会在毛利上感受到它。

Chantelle Breithaupt(CFO):我只补充一点:不要据此假设或推断明年的新模型。这只是我们常规的组合讨论的一部分,而且完全在你们之前看到的表现区间之内。

Rudolph Araujo:下一位,高盛的 Michael Ng。请提问。

Michael Ng(高盛):下午好。谢谢。想请你们谈谈,随着我们进入更完整的整柜(full rack)方案,Arista 的定位如何?这会更多是合作伙伴模式吗?你们如何看待应对计算与网络之间日益增长的融合?非常感谢。

Jayshree Ullal:Michael,这是个很好的问题。首先,正如你从分析师那里听到的,Andy Bechtolsheim 正在亲自带队,与硬件团队一起推动相当数量的机柜项目。我想在任何时间点,我们都有 5–7 个项目,使用不同的加速器选项。显然,NVIDIA 今天是金标准,但在未来几年我们能看到 4–5 种加速器涌现。Arista 在许多案例中被寻求作为网络平台的首选,要把电缆、协同封装、供电、散热,以及与不同 XPU “卡匣”的连接统合起来。因此我们参与了大量早期设计。我认为许多设计会在以太网标准愈发稳固时成形。我们现在有了 UEC 规范。你刚才也听我说到 ESUN 规范,在那里我们可以把不同的工作流承载在同一个以太网头部、传输头部、数据链路层之上。所以我认为很多事情会在 2026 年推进,并在 2027 年真正涌现,因为“scale‑up Ethernet”会成为更重要的一部分。至于我们如何获得更多认可或收入,其中一些不会是经典的 OEM 模式;可能会有更多“蓝盒 JDM 模式”,我们与他们在 IP 上合作,做参考设计,并在“超越网络”的能力上提供支持。但很多情况下,我们也会在这些机柜中以原样销售网络。

Rudolph Araujo:下一位,花旗的 Atif Malik。请提问,线路已开通。

Atif Malik(花旗):谢谢接听我的问题。Jayshree,你在准备稿中提到了 OpenAI 与 Anthropic 等大型语言模型提供方,他们宣布与贵方的云巨头存在合作。能否分享在这些公告中,关于网络硬件的决策究竟由谁主导?另外,你对自己在这些云巨头“圈子”里的份额是否稳定有什么评论?

Jayshree Ullal:好的。先回答你最后一个问题:我们的份额很稳。你也知道,我们一直与两类竞争共存。一类是与 NVIDIA 绑定销售的策略,另一类是白盒。就目前而言,我们没有看到份额有显著变化,不论是上升还是下降。它是稳定的。当然,这也是一个巨大的市场,我们认为“水涨船高”,而这条船的感觉不错。至于谁来做决定,这是一个“组合拳”。我们与这些软件与 LLM 厂商紧密合作,因为他们显然会引导设计;但我们也与云巨头合作。在这两者之间,这是一个共同承担的责任。大型数据中心的采购、供电、选址与制冷,显然由我们的云巨头来做;但关于在 scale‑up、scale‑out 网络上究竟需要什么规格,则由 OpenAI 与 Anthropic 这样的合作伙伴来界定。所以,这是一个共同决策。

Rudolph Araujo:下一位,摩根大通的 Sammik Chatterjee。请提问,线路已开通。

Sammik Chatterjee(摩根大通):谢谢。回到你之前对另一个问题的回答,你提到了出货的某些波动,可能在客户层面导致了季度间的“跳动”。此前你谈到你们参与的一线客户在把集群规模推进到 10 万(100K)以上。是否与这些计划的变化有关,从而导致了你们在第四季度指引中的“放缓”?或者,导致这种出货波动的因素是什么?是否与供应有关?有没有更多细节?

Jayshree Ullal:是的,Sawmick,我会说这在很大程度上是由供应驱动的。如你所知,四家客户都在 10 万的节点目标上表现良好,其中三家已经跨过这一门槛。第四家,我不确定他们会在年底还是明年跨过去,但他们在路上。所以我们对大型 GPU 部署的进展感觉良好。同时,我所说的波动是:需求大于我们的交付能力。我们许多元器件的交付周期——包括标准内存、芯片、通用交换芯片(merchant silicon)等等——虽然不像 2022 年那样,但仍然很长,介于 38–52 周之间。所以我们在应对这件事,你也能看到 Chantelle 在采购承诺上“向前倾”。没有需求,我们不会那样做。

Rudolph Araujo:下一位,Evercore ISI 的 Amit Daryanani。请提问。

Amit Daryanani(Evercore ISI):谢谢。我想问一个大家其实已经变相问了几次的问题:你们过去三四个季度的增长在 20% 高位,如今你们开始暗示这将放缓,不仅在 12 月季度,2026 年我想也是。把 20% 高位降到 20% 低位。能否谈谈造成这种“放缓”的驱动?因为如果看看你们的采购承诺与不同产品的增长,它几乎暗示未来季度可能加速,而不是放缓。那么,推动未来季度“放缓”的因素是什么?

Jayshree Ullal:好的,Amit,但我不喜欢“放缓”这个词。我们在谈论非常大的绝对数,各位。我承诺的是两位数、20% 及以上。不要称之为放缓,称之为“跨季度的波动”。需求很好。我只是不能确定它会落在 2026 年还是 2027 年。

Chantelle Breithaupt(CFO):我只补充一点:当你想到大型 AI 用例里的“验收条款”时,关键在于它们何时“同时到位”,而时间点并不遵循季节性模式。这也是我们所指的部分原因。

Jayshree Ullal:是的,“它什么时候落地就什么时候落地”。Chantelle 的这个点非常好。在云业务里,我们开始对它们何时落地、如何建设有了可预测性。在 AI 里,周期更长。

Rudolph Araujo:下一位,瑞银的 David Vogt。请提问,线路已开通。

David Vogt(瑞银):谢谢。冒着让 Jayshree 对我“提高嗓门”的风险来问这个问题。关于你们在 2026 年的展望,你们较早就上调了这一点,这让我们有些意外。如果我把你们围绕 AI 机会、园区与 VeloCloud 的举措算进去,那么似乎在 AI 与园区之外,“核心业务”的增长空间不大。能否谈谈你们在那个市场看到的情况,以及我们该如何看 2026 年的进展?

Chantelle Breithaupt(CFO):好的。我想回到 2025 年早期,甚至 2024 年。我们的风格之一是不把“100% 命中”当作前提去拼一个数字,我们愿意给自己留一些可操作的余地。所以我们为 AI 设定目标,也为园区设定目标。这不代表我们不关注其他部分,但我不认为把所有东西都假设成 100% 是正确的做法,从而让自己暴露在风险下。我们会随着情况变化持续更新,对吧,Jayshree?

Jayshree Ullal:完全正确。而且——我不希望“提高嗓门”成为我想要被贴的标签。“兴奋”或者“热情”更适合。很显然,AI 与园区都会高速增长,这也应该如此,因为那是两个非常大的计划。无论是 Ken 与 Tyson 推动的 AI 与云团队计划,还是 Todd Nightingale 推动的园区计划,这两者都会以两位数增长。所以,正如你所说,这可能让核心业务的增长空间不大。但这并不是说它会“持平”,也可能是增长。这是说我们的客户把更多注意力放在那里,而现有业务已经在很大的基数上,其增长会更小。我们现在还不能预测 2026 年的组合:它会持平、个位数增长,还是会有更多往 AI 倾斜?坦率地说,我们现在无法在这么早的时候预测。但我们认为 2026 年将是一段很棒的旅程。

Rudolph Araujo:下一位,Melius Research 的 Ben Ritchie。请提问,线路已开通。

Ben Ritchie(Melius Research):谢谢。回到长期层面。Jayshree,之前有人问到 OpenAI、Anthropic,以及这些与私营公司相关、但显然正成为“超大规模”的更大建设。也许不点名地说,我想听听你们对参与这些与云巨头相关建设的信心。你认为你们能获得大量这部分增长吗?随着我们来到 2025 年末,有没有什么变化让你对参与度更有或更少信心?谢谢。

Jayshree Ullal:这是个非常好的问题,Ben,谢谢你的认真提问。到目前为止,我们衡量 AI 成功的主要方式(通过我们的云与 AI 巨头)是 GPU 的数量:他们在安装多少,以及我们能否验证以太网网络有效。到目前为止,大多数都是 scale‑out。首先我想强调,摆在我们面前有三个大的用例:scale‑up、scale‑out 与 scale‑across。Arista 到目前为止参与的主要是 scale‑out。接下来我们还会在另外两个用例中得到增强,这正是 Ken 刚才很精彩地描述的 EtherLink 产品组合的美妙之处。那么这些是怎么建的?显然是由大型语言模型、token、transformer、推理用例等等驱动。我跟不上这些“千兆瓦”的统计:这边 10 GW、那边 10、还有 30……加起来很多。但我可以告诉你,无论如何,Arista 都被视作一个非常重要且相关的参与者,尤其是在当下的 scale‑out 与 scale‑across。我们会参与 scale‑up,但那需要更久一点。今天它主要是一组专有技术,比如 NVLink 或 PCIe。我认为那会更多发生在 2027 年。所以,当我们对明年超越 100 亿美元目标越来越有信心时,我们也在看下一步三年达到 150 亿美元的目标。我认为 AI 将是非常大的组成部分,你刚才提到的那些公司也会如此。

Rudolph Araujo:下一位,巴克莱Tim Long。请提问,线路已开通。

Tim Long(巴克莱:谢谢。想更深入谈谈你们多次提到的 Blue Box,它在你们“good‑better‑best”里位于中间部分。两个问题:第一,能否讲讲随着 Blue Box 随时间成为更大组合的一部分,我们应如何看它的经济模型、毛利之类?第二,从部署看,我们会在什么场景看到这种方案?我猜在 scale‑up 里,也许如你所说更简单,可能用不到完整的 EOS。那么从客户或用例角度,你们预计在哪些地方最容易凭 Blue Box 获得成功?

Jayshree Ullal:谢谢你,Tim。问题问得很好。我想我在分析师日提到,我们已经很快看到了成功。我给你一个例子:有个客户一直让他们的白盒“跑不起来”。这些是 AI 关键任务工作负载。我们看到一家 NeoCloud 介入,这次还是非 NVIDIA 的 GPU。他们希望部署 Arista 的卓越硬件。起初他们想用开放 NOS,但现在他们采用了“混合”策略:不仅是开放 NOS,Ken 的 EOS 也将在这个用例里“大放异彩”。因此,在这个案例中,我认为它会从 Blue Box 开始,但很快进入到“蓝盒 + 自有品牌 EOS 盒”的混合状态。就经济性而言,它与我们在云与 AI 巨头的模式总体并无太大不同。当然,也会存在你刚才提到的场景,尽管现在还没大规模上演。随着我们进入显著的 scale‑up 体量,我们预期“规模经济 + 组合”会共同作用。换句话说,体量更大时,毛利压力也会更大。但我们会谨慎把握 scale‑up、scale‑out 与 scale‑across 的组合,不影响整体毛利,同时在其中取得我们应得的份额。希望这回答了你的两个问题,Tim?

Rudolph Araujo:下一位,摩根士丹利的 Meta Marshall。请提问,线路已开通。

Meta Marshall(摩根士丹利):谢谢。也许问你一下,Jayshree。我知道你们现在不再单独拆分前端与后端。但随着更多推理用例的建设,关于前端网络升级与你们一年前的预期相比,进展如何?谢谢。

Jayshree Ullal:谢谢。我想一年前,甚至两年前,我可能就跟 Amit 说过:当时我们基本站在“外面往里看”这些后端网络,而后端大多是用 InfiniBand 构建。今年尤其出现了“海啸级”的变化:我们越来越多地被邀请去建设他们的 800G。去年更多是 400G,我认为明年会是 800G 与 1.6T 的组合。后端正在“挤压”前端,这就是为什么我们现在越来越难说:“什么是直接连接 GPU 的后端数字,什么是前端?”但在我们的云巨头那里,我们知道一些非常明确的案例:它不仅推动了 AI 相关数字,他们也不得不回去升级他们的云基础设施来应对这种压力。后者是在较小的规模上发生;而“前后端的融合”是在较大规模上发生;它确实变得很难区分,可能是一半对一半。

我想指出的是,我们看到 Arista 可能是中国以外唯一成功同时销售前端与后端的厂商。这正是我们的工程对齐如此重要的原因,因为我们能在客户的整个基础设施上提供一致的解决方案。我认为这是一个独特的差异化优势,也并非易于被竞争对手复制。如果你看看 NVIDIA,例如,它在前端的销售体量很小;而 Cisco 在后端的体量也很小。所以我认为我们会看到这种融合对我们非常有利。

Rudolph Araujo:下一位,法国巴黎银行的 Carl Ackerman。请提问。

Carl Ackerman(法国巴黎银行):谢谢。关于你们在“可调度”(disaggregated scheduled)织构与“非调度”(non‑scheduled)织构之间的市场机会如何看?据我所知,在你们的一家最大客户那里,非调度织构被用于最大规模的 AI 加速器集群。而事实上,你们似乎是唯一同时提供这两种网络拓扑的交换机厂商。我也好奇其他数据中心运营者是否会采用你们的 DSF(disaggregated scheduled fabric)架构,因为它在“无拥塞”方面有优势。谢谢。

Jayshree Ullal:我认为你切中了要点,Ken 也提到过,所以我想让他回答一部分。看,我们并不“宗教化”(不走极端)。我们与一家领先的云巨头共同开发了 DSF 架构,我们也已经非常长时间在销售“非调度”织构。我们从未在这件事上“宗教化”。这两者在我们的云巨头那里都表现很好,尤其是在我们共同开发的那家。

Ken Duda:没错。我们把两种架构都在“海量生产规模(massive production scale)”上运行了大概 15 年,我们会继续为客户提供这种选择范围:要么选择具备“深缓冲、无热点、无拥塞、无丢包”的“最高价值”织构;要么选择“非调度”织构——也许成本更低,但运维更难。两者运行同一套软件,这给客户提供了选项,同时保持一致的运维模型。

Rudolph Araujo:下一位,Raymond James 的 Simon Leopold。请提问,线路已开通。

Simon Leopold(Raymond James):谢谢。我想回到 Blue Box 这个话题。你们在分析师会上谈了很多,所以我理解这不是新鲜事。但我不确定我理解它如何演变:听起来有更广泛的客户群在采用它,这也影响了你们 2026 年的毛利指引。能否详细说明你们对 2026 年 Blue Box 趋势的假设?谢谢。

Jayshree Ullal:我认为在 2026 年,Blue Box 趋势会继续维持在一小撮“具备运维能力”的客户手中。把它想象成我们“特色云服务商”或“云巨头”的范畴。这不会成为主流。所以客户数量大概还是个位数,也许 10、也许 20,不会是上百。因为他们确实需要有运维卓越来在我们的 NetDI 与硬件之上构建,再加上他们自己的开放 NOS 或其他。你说得对,在这种场景下,因为可能没有 EOS 这一层,我们会接受更低的毛利。这已被纳入我们对 2026 年的组合与指引中。我们认为 Blue Box 与“自有品牌 EOS 盒子”的组合,会继续帮助我们在“高增长且盈利”的业务中茁壮成长。

Rudolph Araujo:下一位,派杰的 James Fish。请提问。

James Fish(派杰):谢谢。还是 Blue Box,但把时间拉长:不仅是明年,而是 3–5 年的跨度,你们怎么看它在业务中的占比?另外,你们提到前端与后端的融合。随着边界模糊,这会削弱你们当下的优势并让竞争更容易进入吗?谢谢。

Ken Duda:关于“前后端融合”,这纯粹对我们有利,因为前端需要海量特性,它是关键任务,支持各种各样的应用,不仅仅是 AI 后端“虽然苛刻但更直白”的通信模式。所以我们看到,“同时处理两者”的能力是一个重要的优势源泉,也是一个真正的差异化,而且并不容易被竞争对手复制。如果你看 NVIDIA,例如,它在前端的销售体量很小;而 Cisco 在后端的体量很小。所以我认为我们会看到这种融合对我们有利。

Jayshree Ullal:谢谢你,Ken。至于 Blue Box,我不确定我们对 3–5 年做了明确建模,但如果让我大胆猜测它的演进,我认为它会在“scale‑up 用例”里更显著,因为在那些场景中,我们对硬件与 NetDI 能力的依赖更高,对软件的要求更低。至于规模我还不知道。我想它会“高单位量、低美元额”。所以从组合上看仍然很小,但它会是“增量”的,因为这是我们今天还没做的用例。

Rudolph Araujo:下一位,New Street Research 的 Antoine Chiccabanian。请提问。

Antoine Chiccabanian(New Street Research):谢谢。想问一下 UEC(Ultra Ethernet Consortium)。能否谈谈联盟的进展,不同声音是否一致?未来投资者应关注哪些里程碑?

Ken Duda:嗨,Antoine,你能再重复一下问题吗?你的声音刚才不太清楚。

Rudolph Araujo:他在问 Ultra Ethernet 联盟(UEC)。能否谈谈 UEC?

Jayshree Ullal:好的,Antoine。经过两年的大量工作,在 Hugh Holbrook 的领导之下、如今由 Tom Emmons 接棒,UEC 在 2025 年 6 月发布了首个规范,我记得是 1.0 版。Arista 的以太网产品组合完全具备 UEC 能力与兼容性,我们会持续增加更多合规特性:如“包裁剪(packet trimming)”、“包喷洒(packet spraying)”、“动态负载均衡”等,这些都是我们交换机所支持的重要功能。我们也会用 ESUN 规范去增强它。正如我刚刚描述的,我们是早期的开拓者。四家厂商共同发起,包括 Broadcom、Arista 以及两家“云巨头”客户。我非常确定,未来会发展到 20、25、30 家。有了基于 OCP 的 ESUN 标准协议,我们就能把 UEC 扩展到 scale‑up 的配置中,同时利用 UEC 与 IEEE 的规范。所以,这个面向以太网、覆盖 scale‑up 与 scale‑out 的“模块化框架”非常优雅——而 Arista 正处于其核心位置。

Rudolph Araujo:下一位,Wolfe Research 的 George Notter。请提问。

未具名主持人(电话会议主持人,代为念问题):非常感谢。我想在独白中你们提到 VeloCloud 是一个正在获得更多动能的领域。我记得你们在分析师日也这么说。好奇你们在那个客户群上看到了什么?从我的角度,我历史上认为那个客户更偏好“打包”,这未必是你们的优势。但听上去你们的态度更积极。想知道你们在那个领域看到了什么?谢谢。

Jayshree Ullal:你说得没错,George。我想一开始,我们看到他们在“打包”。我能想到两个例子:我们被“邀请入场”,因为“你要我的 GPU,就得从我这儿拿网络”,于是我们去了。但先把这两个例子放在一边——我甚至认为这两个最终也会变得更“开放”。全球还有更多 NeoCloud 正在涌现,他们真正希望 Arista 的帮助,不仅在产品上,还在网络设计与软件能力上。他们没有足够的员工与专业能力来把所有事情都自己做完,他们宁愿让我们来满足他们的网络需求。所以我们正在拿下许多 NeoCloud 与较小的企业——当然 GPU 集群的规模较小。但如果他们从一千到几千起步,我们有理由希望他们会成长。它们似乎都有一个共同优势:机柜托管空间与电力。而你也知道,这将成为未来非常“保值”的资产。

Rudolph Araujo:下一位,William Blair 的 Sebastian Najarian。请提问,线路已开通。

未具名主持人(电话会议主持人,代为念问题):谢谢,下午好。我想更了解你们在企业 go‑to‑market 上的投入。看起来本季度你们的销售与营销费用有所上升。进入 2026 年,你们认为在哪些方面会取得最大进展?是地理扩张?还是加大渠道投入?或者是向存量企业客户做更多交叉销售?期待你们的看法。

Jayshree Ullal:你点到了一个非常重要的点,因为我们确实有“硬币的两面”。一方面,AI 与云的组合令人“眼花缭乱”;但我们对巨大的 300 亿美元 TAM 同样“兴奋且眼花缭乱”。这也是我们很高兴有 Todd 在这里的原因。我们刚刚在伦敦举办了“International Innovate”,Ken、Todd 和我都去了。对“一个相关的、高质量的网络厂商”的渴望从未如此之高。因此我们确实要在那儿投资。Todd,你要不要说两句?

未具名主持人(电话会议主持人,代 Todd 发言):是的,我们对企业空间的增长在各个维度都感到兴奋,但我们“非常聚焦”的有三个维度。第一是向园区扩张。VeloCloud 的并购让我们的产品组合在那一块变得完整,我们取得了很好的牵引,正在全球范围大力推进。那里对我们来说有大量“白地账户”。你也提到地理扩张——很棒。我们本季度在亚洲的数据表现不错,我们认为那里有很大的加速机会,而且我们对当前的进展感到满意。最后是“触达新 Logo(新客户)”,我们正在投资渠道,真正去实现这一点,给我们带来更多机会、更多“上场打击(at‑bats)”去找到潜在客户,并第一次向他们介绍 Arista。

Jayshree Ullal:BATS 是“板球”的说法。

Rudolph Araujo:对,这是板球。

Jayshree Ullal:对的。所以,Sebastian,我们的感觉非常好,而这显然是我们数字的“另一半”。

Rudolph Araujo:下一位,Needham 的 Ryan Kunst。请提问,线路已开通。

Ken Duda(代 Ryan 的同事 Jeff Hopkins 提问):我是 Jeff Hopkins,代 Ryan Kunst 提问。谢谢。我们看到很多“与超大规模云或 AI 模型公司”的交易,涉及新的数据中心建设。可能是自云建设以来未曾出现过的规模。所以我好奇,我们应如何看 Arista 在“新建网络”与“存量网络升级”之间的机会划分?

Jayshree Ullal:是的,这正是正确的看法。过去在云时代,我们很少有机会谈“GW 级、乃至更大”的规模。当时更多是“多兆瓦(MW)”级。因此这些是“新建的 AI 建设”,而不是传统由 CPU 或存储驱动的云建设。当然,那里也会有“升级”,但坦率地说,它们没有得到那么多关注。所有注意力都在新的 AI 建设上。所以你的观察是对的。

Ken Duda:我们还有时间回答最后一个问题。

Jayshree Ullal:来自 Cleveland Research 的 Ben Boland。请提问,线路已开通。

Rudolph Araujo:各位晚上好,谢谢给我机会。Jason,你刚才谈到了一些“交期收紧”的情况。我好奇你们在这些云客户那里的“工程与交付交期”在如何演变?尤其是在接下来 12–18 个月里,你们在“满足其需求”的信心有没有变化?谢谢。

Jayshree Ullal:Ben,你知道,“预测”是一门非常微妙的科学。我几乎从来不会“完全正确”。所以我依赖早期预览与早期预测——Tyson、Ken 和整个团队也是——来自我们的大客户。没有这些,我们不可能做出合理的规划。即便在他们下 PO 之前,我们也得对他们需求有一个好主意。你也在 Chantelle 的“采购承诺”中看到了这种反映。与我们的大客户之间的“深度而亲密的”合作,是他们理解的。他们在 2022 年的供应危机中吃过亏,如今他们绝对会与我们一起做规划。在 Todd 的领域(大型企业)里也部分如此。因为在大型数据中心,你必须提前规划。它们不是“凭空出现”的。它们需要电力、需要空间——这些是 1–2 年的交期。

我们需要更加警惕的是园区业务——这是 Todd、我的园区团队与整个制造团队正在努力的方向。大家要意识到,我们在园区业务里,刚刚经历了最好的季度之一。祝贺你,Todd。本季度园区业务打得漂亮。那个规划周期要短得多,往往是“以天与周”为单位,而不是“几个月、半年或更长”。因此我们正在处理这种“二元性”:在 AI 这边尽可能提前规划;在企业与园区这边,也尽可能提前规划。Todd,你还有什么要补充的吗?

Rudolph Araujo:我只补充:我们正变得更为积极,正如 Jesse 所说,去改善园区的交期,真正加速那块业务,帮助推动我们对“企业增长”的坚定信念。还有就是,在采购承诺上投入的资金非常关键。我们在寻求改善。

Ken Duda:Jayshree 与 Todd。Arista Networks 的第三季度财报电话会议到此结束。我们已经在公司网站的投资者部分发布了一份演示文稿,提供关于我们业绩的更多信息。感谢大家今天的参与,以及对 Arista 的关注。

Jayshree Ullal:感谢各位参加。女士们先生们,今天的电话会议到此结束。您现在可以挂机了。