Meta 正在加入万亿美元级别的定制 AI 芯片竞赛,此举可能减少其对英伟达的依赖,并重塑半导体行业格局。
返回
Meta 正在加入万亿美元级别的定制 AI 芯片竞赛,此举可能减少其对英伟达的依赖,并重塑半导体行业格局。

Meta Platforms Inc. 正在其超智能实验室(Super Intelligence Lab)内部组建一个专门的硬件团队,这是其设计自有定制人工智能芯片的重大战略转型。据 4 月 4 日报道,此举标志着 Meta 意欲加入其他科技巨头的行列,将半导体研发内部化,旨在削减其在市场领导者英伟达(Nvidia)GPU 上高达数十亿美元的支出,并为其自身的 AI 工作负载优化性能。
这种垂直整合的趋势在大型科技公司中日益盛行。英伟达首席执行官黄仁勋(Jensen Huang)最近承认了定制芯片市场的扩张,他表示:“全球所有的数据中心都将被这种全新的计算方式所取代。”尽管英伟达的 CUDA 平台仍占据主导地位,但黄仁勋关于与 Marvell Technology 合作的言论凸显了一项战略转变,即拥抱并从中获益于威胁其核心 GPU 业务的定制芯片运动。
行业内的顶级玩家已经深入参与到定制芯片的研发中。亚马逊拥有 Trainium 和 Graviton 处理器,Alphabet 拥有张量处理单元(TPU),微软也在研发自己的芯片。这些公司通常与 Marvell 和 Broadcom 等设计公司合作以实现其愿景,从而建立起一个与英伟达现成解决方案并行的强大生态系统。
对于投资者而言,Meta 加入这场军备竞赛具有明确的意义。开发定制芯片每年可为公司节省数十亿美元的采购成本,并通过针对其 Llama 系列 AI 模型直接定制硬件,提供长期的竞争优势。虽然这标志着短期内资本支出的增加,但它强化了 Meta 在 AI 竞赛中地位的看涨叙事,直接挑战了股票市盈率超过 30 倍的英伟达的长期主导地位。
推动定制 AI 芯片的研发是对商用 GPU 高成本和通用化特性的直接回应。虽然英伟达的芯片功能强大,但对于公司可能面临的每一项特定 AI 任务,它们并不总是最高效的解决方案。通过设计自有芯片,像 Meta 这样的公司可以针对其神经网络的精确架构进行优化,从而在性能和能效方面获得显著提升。
这种策略并不新鲜。谷歌凭借其 TPU 开创了这一先河,多年来这些芯片一直为其搜索和 AI 产品提供动力。最近,亚马逊的 AWS 也公开宣称其用于训练 AI 模型的定制 Trainium 芯片具有成本和性能优势。根据 CNBC 最近的一份报告,亚马逊甚至正在将其自有定制芯片与英伟达的 NVLink Fusion 技术相结合,展示了未来混合环境的趋势。这种全行业范围的转型正在为 Cognichip 等半导体设计公司创造新机遇(该公司最近筹集了 6000 万美元以推进其 AI 驱动的芯片设计技术),同时也让 Marvell 和 Broadcom 等老牌公司获益。
英伟达并没有停下脚步。该公司最近宣布与 Marvell Technology 建立战略合作伙伴关系,斥资 20 亿美元入股该公司,持股比例约为 2.5%。此次合作的重点是将 Marvell 的定制芯片与英伟达的网络结构 NVLink 相结合。这使得设计自有处理器的客户能够更轻松地将其与英伟达更广泛的生态系统(包括其 CPU、网络硬件和软件库)连接起来。
“通过合作,我们将能够应对一个大得多的[总体潜在市场],”英伟达首席执行官黄仁勋在接受 CNBC 采访时表示。此举是对“通用 GPU”模式正在发生演变的默许。通过投资并与定制芯片的关键推动者合作,即使在其自有 GPU 不是主要处理器的情况下,英伟达也能确保获得收入。这是一种对冲策略,使英伟达在继续销售其市场领先产品的同时,也能从定制芯片的增长中获益。
对于 Meta 而言,通往成熟定制芯片的道路漫长且昂贵,但潜在回报巨大。成功的自研芯片可以大幅降低运行其 AI 服务的运营成本,包括训练未来版本的 Llama 模型以及为其社交媒体应用中的 AI 功能提供动力。这将提高利润率,并使公司能够更积极地扩展其 AI 计划。
此举加剧了对英伟达的竞争压力。虽然 Meta 在未来几年内可能仍将是英伟达的主要客户,但长期趋势已十分明确:英伟达最大的客户都在积极寻求减少对其产品的依赖。然而,正如与 Marvell 的合作所表明的那样,英伟达正在调整战略,旨在成为整个 AI 数据中心的基础平台,而不仅仅是一个 GPU 供应商。AI 霸权的竞争正在从软件模型扩展到运行它们的芯片本身,而 Meta 已正式鸣枪开跑。
本文仅供参考,不构成投资建议。