Meta 2026算力重构,一场被动的“三角博弈”

收录于 前沿科技 持续更新中
  2026年的开局,对Meta而言堪称“内忧外患”的叠加。当中国AI模型在春节档掀起迭代大战,硅谷同行忙着推送“天级别”功能更新时,这家曾在大模型赛道崭露

  2026年的开局,对Meta而言堪称“内忧外患”的叠加。当中国AI模型在春节档掀起迭代大战,硅谷同行忙着推送“天级别”功能更新时,这家曾在大模型赛道崭露头角的科技巨头,却陷入了罕见的沉寂——没有重磅产品发布,没有技术突破官宣,甚至连核心人才都在加速流失。最引人瞩目的莫过于苹果基模负责人庞若鸣,这位Meta以14亿重金(约2亿美元薪酬)挖来的顶尖人才,仅入职半年便转身投奔OpenAI,成为Meta人才流失潮中最刺眼的一笔。

  人才出逃、产品失声的背后,是Meta在AI核心领域的多重溃败。外界的猜测并非空穴来风:在硅谷大厂的AI算力博弈中,Meta或许会成为第一个撑不住“下牌桌”的玩家。而压垮信心的,是自研芯片的折戟、核心团队的动荡,以及算力供应链的潜在危机——据The Information援引知情人士消息,Meta内部代号为Olympus的新一代AI训练芯片项目,已正式宣告叫停,这场耗时两年多的自研攻坚,最终沦为一场徒劳。

  自研之路的崩塌,远比外界想象的更为彻底。Olympus本是Meta对标英伟达的“王牌项目”,采用与英伟达GPU同源的SIMT架构,寄望于打破后者在训练芯片领域的垄断。为了推进这个项目,Meta去年特意收购了初创公司Rivos,后者承诺其GPU能兼容英伟达的CUDA代码——这看似是绕开生态壁垒的捷径,却忽略了“能运行”与“能规模化落地”的天壤之别。按照原计划,Olympus最早要到2026年第四季度才能完成设计,加上量产周期,真正实现规模化部署至少要等到2027年之后,这与Meta迫切的算力需求严重脱节。

  更尴尬的是,这并非Meta首次在自研芯片上栽跟头。此前代号为Iris的第二代训练芯片,因采用SIMD架构,虽降低了硬件设计难度,却陷入了软件编程复杂、AI训练效率低下的困境,最终同样被放弃。一位参与Meta芯片项目的内部人士透露,公司内部早已弥漫着怀疑的情绪:想要打造性能媲美英伟达的芯片,不仅需要投入海量工程师资源,还要直面延迟、功耗、重新设计等多重风险,任何一个环节失误,都可能让整个项目功亏一篑,“投入和产出完全不成正比,风险高到无法承受”。

  当自研之路走到死胡同,扎克伯格最终选择了最现实的妥协:放弃“闭门造车”,加速拥抱外部采购,构建起以英伟达为核心、AMD与谷歌为补充的“算力三角”格局。这一决策的背后,是Meta近乎贪婪的算力需求——扎克伯格曾在Threads上透露,到2030年前,Meta要部署“几十吉瓦”的数据中心算力,长远目标更是达到“数百吉瓦甚至更多”。巨额的算力缺口,让Meta无法依赖单一供应商,“鸡蛋不能放在一个篮子里”,成为其打破算力困局的核心逻辑。

  与AMD的千亿级绑定,是Meta在推理算力领域的关键落子。2月24日,双方官宣达成一项价值超1000亿美元的五年协议,Meta将采购足以支撑6吉瓦计算能力的AMD MI450系列芯片,而AMD方面直言,每吉瓦计算能力对应的是数百亿美元的收入体量。这场合作的核心亮点,在于罕见的股权绑定:AMD向Meta授予认股权证,允许后者以“白菜价”收购约10%的股份,不过行权需满足特定业绩里程碑,且全部行权的前提是AMD股价涨到600美元——这意味着AMD的市值要在当前基础上翻三倍,难度可想而知。

  AMD CEO苏姿丰的表态,道出了这场合作的微妙之处:“Meta有很多选择,我们要确保自己始终是他们的优先选项。”事实上,这种“循环融资”的绑定模式,在AI芯片行业早已不是新鲜事——2025年10月,AMD与OpenAI达成的合作,条款几乎如出一辙。对Meta而言,选择AMD的核心原因的在于MI450系列的Chiplet设计,其模块化特性允许Meta根据自身应用场景进行定制化优化,恰好适配推理环节的海量需求,成为英伟达在推理领域的重要补充。

  如果说AMD承接了Meta的推理算力,那么谷歌则成为其训练算力的“后备底牌”。2月26日,有消息称Meta与谷歌达成数年期合作,将租用谷歌的TPU张量处理单元用于新AI模型的训练,协议价值数十亿美元,双方更在洽谈2027年Meta直接采购TPU、部署在自有数据中心的可能性。这一合作的落地,离不开谷歌Gemini模型的“背书”——作为基于TPU训练的标杆产品,Gemini的表现证明,TPU有能力在训练领域挑战英伟达的主导地位。

  而谷歌策略的调整,更是为双方合作扫清了关键障碍。此前,TPU仅能通过谷歌云使用,客户需将数据和计算任务全部迁移至谷歌数据中心,这无疑触碰了企业数据安全、合规性的红线,让很多企业望而却步。自Anthropic与谷歌合作后,谷歌放开了TPU的外部采购权限,这也让Meta得以绕开数据安全的顾虑,放心租用TPU。此外,英伟达最新Blackwell芯片在部署过程中出现的技术故障,也给了TPU抢占市场的窗口期,让Meta下定决心布局这一后备选项。

  谷歌在TPU业务上的野心不止于此。据知情人士透露,谷歌正与私募股权公司洽谈成立合资企业,以“谷歌出芯片、投资方出钱”的模式,将TPU出租给更多客户——这与英伟达扶持CoreWeave等“新云厂商”、扩大生态影响力的思路高度相似。目前,谷歌已与一家大型投资公司签署投资意向书,由谷歌云资深人士本杰明·特雷纳·斯洛斯领导的团队,正主导TPU的融资工作。有谷歌云高管在内部表示,TPU业务有望拿下英伟达10%的市场份额,按英伟达过去12个月约2000亿美元的收入计算,这意味着200亿美元的市场空间。

  不过,谷歌也面临着两难处境:它既是英伟达的竞争对手,也是其重要客户。谷歌云必须持续采购英伟达GPU,因为大量开发者对CUDA生态的依赖度极高,若谷歌云没有英伟达芯片,这些用户将直接流失到其他云平台。因此,谷歌不得不采取“两头下注”的策略,一边推广自家TPU,一边继续采购英伟达GPU,在竞争与合作中寻找平衡。

  在这场算力博弈中,英伟达的处境看似被动,实则早已掌握主动权。黄仁勋早在2025年的分析师会议上就预判:“大多数科技公司最终会放弃自研AI芯片。”他的底气,不仅来自英伟达GPU的性能领先,更源于其无法被撼动的CUDA生态护城河。正如一位国产芯片创业者所言:“硬件不是壁垒,AMD投入数百亿美金,性能甚至超越英伟达,但始终无法突围,核心就是CUDA生态——它的工具包集成度极高,能帮开发者节省大量时间成本,这是其他厂商短期内无法超越的。”

  即便如此,英伟达也不敢掉以轻心。台积电的产能瓶颈,是其最大的软肋——只要供给不足,市场就会留下缺口,竞争对手就有可乘之机。因此,英伟达也在复制“循环融资”模式:2025年投资Anthropic,绑定其芯片使用;与OpenAI洽谈300亿美元股权投资,深化合作;2月中旬,更是与Meta达成“多代”合作伙伴关系,承诺未来几年供应数百万颗GPU,用长期协议锁定核心客户。

  这场算力混战中,最“闷声发大财”的当属博通。作为谷歌TPU的核心供应商,博通全程操盘TPU的生产与封装,不仅负责与台积电对接,还提供关键的SerDes IP,保障TPU之间的高速互联与并行计算。分析师估算,仅TPU相关业务,博通每年就能斩获至少80亿美元的收入。凭借核心的封装技术和IP优势,博通成为短期内无法被绕开的关键角色,即便谷歌与博通常因定价产生分歧、开始寻找替代伙伴,也难以撼动其地位。

  联发科的入局,成为打破这一格局的潜在变量。作为台积电2026年CoWoS新晋客户,联发科已将ASIC业务列为重点板块,投入大量人力布局,计划2026年下半年开始出货侧重推理的TPU v7e,并在2027年成为该型号的出货主力。联发科的目标很明确:通过生产低配版TPU,帮助谷歌降低AI运行成本,逐步抢占博通的市场份额,这也意味着TPU的供应链竞争将进一步加剧。

  回望Meta的一系列动作,本质上都是算力焦虑的集中爆发。黄仁勋在英伟达最新业绩会上的一句话,道破了AI时代的核心逻辑:“在这个AI新世界里,计算直接创造收入。没有计算,就无法生成token;没有token,收入增长就无从谈起。”对Meta而言,算力就是AI时代的“核心资源”,是决定其能否在赛道上持续领跑的关键,而扎克伯格显然深谙此道——他的“算力三角”策略,看似是自研折戟后的被动妥协,实则是对现实的清醒认知:与其在自研上消耗时间,不如快速整合外部资源,锁定算力供应,为后续的技术迭代和产品创新铺路。

  这场算力重构,也改写了AI芯片行业的竞争格局。对英伟达、谷歌、AMD、博通而言,Meta的多供应商策略既是机遇也是挑战:机遇在于AI算力的蛋糕持续扩大,谁能抓住Meta这样的核心客户,就能占据行业先机;挑战则在于,独家供应的时代彻底终结,没有哪家企业能再“躺着赚钱”,唯有持续优化技术、完善生态、控制成本,才能在激烈的博弈中站稳脚跟。而对整个行业而言,Meta的选择或许会成为一种趋势——当自研芯片的风险远超收益,更多科技巨头可能会放弃“单打独斗”,转向多元化的算力合作,开启一场全新的算力博弈。


本文来自微信公众号: 腾讯科技 ,编辑:徐青阳,作者:苏扬

推荐前沿科技

苏公网安备 11011xxxxx号 苏ICP备2025192616号-1