跳至主要內容
FAQ

Meta 與 Broadcom 簽下超大規模客製晶片協議:承諾部署逾 1 吉瓦算力

Meta Platforms 於 4 月 14 日宣布大幅擴大與 Broadcom 的合作,承諾基於 Broadcom XPU 平台,跨多代 MTIA 晶片部署逾 1 吉瓦的客製 AI 加速器,合約期延伸至 2029 年。這項多年期協議清楚表明 Meta 減少對 Nvidia 依賴的決心,也是當前 AI 基礎設施軍備競賽中最具指標意義的一步。

1 分鐘閱讀

在 AI 基礎設施的激烈競賽中,Meta Platforms 於 4 月 14 日丟出迄今最重大的硬體賭注:與 Broadcom 大幅擴大合作,承諾部署逾 1 吉瓦的客製 AI 算力——並以一份延伸至 2029 年以上、涵蓋多代晶片的長期藍圖為後盾。

這項協議是 Meta 多年來致力於擺脫對 Nvidia 依賴、打造自有晶片的努力之集大成。自有晶片將承擔驅動 Facebook、Instagram 推薦演算法,乃至 Meta 近年積極推出的各類生成式 AI 功能等一系列核心 AI 工作負載。

自主架構的核心:XPU 平台

這項協議的技術核心是 Broadcom 的 XPU 平台——一套專為設計客製 AI 加速器打造的技術堆疊,讓企業能針對自身工作負載特性打造應用專用晶片。Meta 將以 XPU 平台開發多代 MTIA(Meta 訓練與推理加速器),這款自研晶片目前已承擔 Meta AI 算力的相當份額。

超過 1 吉瓦的初始承諾是一個令人震驚的數字。做個比較:1 吉瓦的算力大約相當於美國一座中型城市的用電量——如今正是超大規模雲端業者與各國政府衡量 AI 雄心的單位。根據協議架構,Meta 最終將部署多吉瓦級別的 Broadcom 晶片,這不只是一個產品公告,而是一套長期基礎設施信條。

Meta 與 Broadcom 將共同開發晶片。Meta 帶來的是對自身工作負載無與倫比的深度理解——大規模社群 AI 領域最詳盡的使用洞見;Broadcom 提供的則是客製晶片設計、封裝與供應鏈的專業能力。這套架構讓 Meta 對晶片藍圖擁有比單純外購更高的掌控權,同時讓 Broadcom 獲得一個旗艦級錨定客戶以及在 Meta 規模下積累的工程經驗。

Nvidia 的陰影

任何 AI 晶片領域的公告,都離不開 Nvidia 這個大背景。這家 GPU 巨頭對 AI 訓練與推理基礎設施的主導之深,讓「AI 算力」幾乎成了「Nvidia 算力」的代名詞。其 H100、H200 依然是訓練前沿模型的首選平台,即將推出的 Vera Rubin 架構在量產前幾個月便已售罄。

正是這種主導地位帶來的價格壓力與配額限制,迫使每家超大規模業者都在探索客製晶片替代方案:Google 有 TPU、Amazon 有 Trainium 和 Inferentia、Microsoft 有 Maia 加速器、Apple 正在打造伺服器端自研晶片——現在 Meta 也在 MTIA 上加倍下注。

Meta 的做法之所以與眾不同,在於與 Broadcom 合作規模之大,以及明確的多代晶片規劃框架。這不是一個避險工具或試點計畫,而是 Meta 有意在可見的未來,持續以客製晶片承擔相當份額的 AI 算力的宣示。對 Nvidia 而言,現實的隱憂不在於 Meta 會立刻停止採購 GPU——短期內不會。真正的擔憂在於:隨著客製晶片成熟,Meta 內部工程積累加深,跑在 Nvidia 硬體上的工作負載比例將緩慢但持續地萎縮。

董事會異動

這次公告同時帶來一個值得關注的治理動態:在 Meta 董事會服務兩年的 Broadcom 執行長郭克 (Hock Tan) 將卸任董事席位,轉為顧問角色。這個安排雖然被定性為例行調整,卻折射出現任董事與 Meta 首要客製晶片夥伴之間日益複雜的利益關係。

郭克仍將以正式顧問身份持續為 Meta 的自研晶片藍圖提供意見——這個架構既保留了策略上的緊密連結,又消除了治理層面的潛在衝突。對 Broadcom 而言,顧問身份或許比董事席位更具彈性:郭克得以在技術與商業事務上直接參與,而無需承擔董事的受託義務限制。

1 吉瓦對 Meta AI 產品的意義

這項協議的實際影響將直接體現在 Meta 的產品路線圖上。該公司持續加碼投資生成式 AI 功能——包括 AI 驅動的內容推薦、面向消費者的 Meta AI 助理、AI 生成廣告素材,以及同時服務內外部使用者的 Llama 系列開源模型。

在客製晶片而非通用 GPU 上執行這些工作負載,具有實質優勢。客製晶片可針對 Meta 工作負載的特定精度需求、記憶體頻寬與網路互連特性進行最佳化,對於推理密集型任務,有潛力在每瓦效能和每美元效能上超越 Nvidia 硬體。以 Meta 的規模——旗下應用每日活躍用戶逾 30 億——即便是晶片層面的微小效率提升,也能換算成每年數億美元的營運成本節省。

2029 年的時間軸也與 Meta 更宏觀的 AI 基礎設施規劃週期吻合。該公司已承諾僅 2026 年的資本支出就將超過 650 億美元,AI 基礎設施是最主要的配置項目。Broadcom 協議實際上為這些資本在未來幾年的部署方式,鎖定了一條清晰的路徑。

客製晶片浪潮的關鍵時刻

Meta 的宣布,恰逢客製晶片浪潮在整個產業加速的節骨眼。就在本週,有報導指出 Microsoft 正積極物色德州與西維吉尼亞州的額外資料中心用地,以鎖定更多 AI 算力。Amazon 的 Trainium 2 晶片已進入超大規模量產。Groq、Cerebras 等 AI 晶片新創,以及據報正籌備 IPO 的南韓 DeepX,都在吸引大量資本。

共同的邏輯是:沒有任何一家公司願意在 Nvidia 的配額決策和定價權面前毫無籌碼。客製晶片是對沖工具,而 Broadcom——憑藉其深厚的客製晶片設計能力與 XPU 平台——正在成為那些需要這種能力、卻無法自建完整晶片設計組織的公司的首選合作夥伴。

對 Meta 而言,這次與 Broadcom 的協議,是迄今為止最清晰的表態:它不只想做算力的消費者,更想成為算力的架構師。

Meta Broadcom MTIA 客製晶片 AI 基礎設施 Nvidia
分享

相關報導

Cognichip 獲 6,000 萬美元融資,以 AI 設計下一代晶片,Intel 執行長親自入董事會

舊金山新創 Cognichip 利用物理資訊 AI 模型大幅壓縮晶片設計成本與週期,完成由 Seligman Ventures 領投的 6,000 萬美元 A 輪融資。公司宣稱可實現 75% 成本降低與 50% 週期縮短。Intel 執行長 Lip-Bu Tan 加入董事會,為這家旨在顛覆 EDA 工作流程的新創公司送出了業界最重量級的背書。

1 分鐘閱讀