跳至主要內容
FAQ

矽片大分手:超大型雲端業者如何瓦解輝達的 AI 晶片壟斷

Google、亞馬遜、微軟與 Meta 正大舉部署自研 AI 加速器,推論運算成本比輝達 GPU 低 30 至 65%。隨著 AI 產業重心從模型訓練轉向大規模推論,分析師預估輝達在推論市場的佔有率恐從逾 90% 崩跌至 20 至 30%——這是 GPU 時代開啟以來最關鍵的硬體權力板塊移動。

1 分鐘閱讀

過去四年,輝達執行長黃仁勳打造了一個科技史上前所未見的地位:幾乎獨攬整個 AI 基礎設施革命的核心硬體供應。高峰時期,輝達掌握 AI 加速器市場逾 95% 的份額,OpenAI、Anthropic、Google DeepMind、Meta AI 等各大 AI 實驗室,都將數百億美元砸進 H100 與 H200 GPU 叢集,只為訓練旗下的前沿模型。

那個時代正在走向終點。

2026 年上半年,業界正見證分析師口中的「矽片大分手」(The Great Decoupling)——全球最大科技公司不再只是輝達的最佳客戶,而是逐漸成為其最強勁的對手。Google、亞馬遜、微軟與 Meta 相繼推出自研 AI 加速器,針對當前最具經濟意義的工作負載——推論(inference)——提供遠勝 GPU 的效能與成本表現。

結構性轉移:訓練 vs. 推論

這場分手的根本動力,來自 AI 運算支出重心的位移。訓練一個前沿模型,需要龐大的 GPU 叢集持續運算數週乃至數月,這是輝達 H100 與 Blackwell 真正如魚得水的場域。然而,訓練是一次性成本;推論卻是永無止盡的:每一筆 ChatGPT 查詢、每一個嵌入 Google 搜尋的 Gemini 回答,都需要消耗全新的運算資源。

2025 年底,推論已佔全球 AI 運算支出的約三分之二,且隨著 AI 產品大規模普及,這一比例仍在加速攀升。更關鍵的是,推論比訓練更需要「專用化」:針對特定運算模式設計的 ASIC(特殊應用積體電路),在超大規模推論場景下,效率遠勝通用 GPU。

現實數字一目瞭然:AI 圖像生成平台 Midjourney 公開表示,將工作負載從輝達 GPU 遷移至 Google TPU 後,每月運算成本從 210 萬美元降至 70 萬美元,降幅達 65%。對每秒處理數十萬次推論請求的超大型雲端業者而言,這個比例意味著每年數十億美元的費用差距。

四大挑戰者與各自武器

Google TPU v7「Ironwood」:於 2026 年 4 月的 Google Cloud Next 大會亮相,Ironwood 是 Google 有史以來最強大的自研 AI 晶片。每顆晶片可提供 4.6 petaFLOPS 的 FP8 稠密運算能力,搭載 192 GB HBM 記憶體與 7.37 TB/s 記憶體頻寬。由 9,216 顆晶片組成的超級 Pod,可聚合至 42.5 exaFLOPS 的推論算力——達到機架層級前所未有的密度。Google 第八代 TPU 已在台積電 2nm 製程上開發中,表明 Google 的晶片路線圖已與半導體製造前沿緊密連動。

亞馬遜 Trainium3:亞馬遜旗下 Annapurna Labs 推出的 Trainium3,是其首款 3nm 製程自研 AI 晶片,目前已進入量產。它提供 2.52 petaFLOPS 的 MXFP8 運算能力,搭載最高 128 GB HBM3E 記憶體。最能體現其實力的佐證是:Anthropic 與 OpenAI 均宣布將訓練與推論工作負載部署在 Trainium3 實例上,為這款晶片提供了過往世代所缺乏的第三方公信力。

微軟 Maia 200:微軟第二代自研晶片採用 3nm 製程,搭載這一世代超大型業者加速器中記憶體最大者:216 GB HBM3E,頻寬 7 TB/s。微軟宣稱 Maia 200 的 FP4 效能是亞馬遜 Trainium3 的三倍,FP8 效能也超越 Google TPU v7。該晶片已部署於 Azure 資料中心,與前一代系統相比,每元效能提升 30%。微軟亦已開始向特定 Azure 客戶提供 Maia 200 的推論實例。

Meta MTIA 300 至 500 路線圖:Meta 公布了各超大型業者中最積極的自研晶片路線圖,詳細揭示四個世代——MTIA 300、400、450 與 500——從 2026 至 2027 年陸續部署。從 MTIA 300 到 MTIA 500,HBM 頻寬提升 4.5 倍,原始算力在不到兩年內暴增 25 倍。考量到 Meta 2026 年高達 1,150 至 1,350 億美元的 AI 資本支出計畫,自研晶片佔比只會日益增加。

輝達的反擊:Vera Rubin 平台

輝達的應對之道是把運算密度推向新的極限。Vera Rubin 平台——計畫於 2026 年下半年進入量產——每顆晶片提供約 50 petaFLOPS 的 FP4 效能,搭載 288 GB HBM4 記憶體。在機架層級,Vera Rubin NVL144 透過 NVLink 6 串聯 144 顆 Rubin GPU,直指任何自研 ASIC 都無法比擬的超大規模訓練場景。黃仁勳估計,輝達將在 2026 至 2027 年間售出逾 1 兆美元的 Blackwell 與 Vera Rubin 晶片。

在訓練工作負載上,輝達的護城河依然深厚。歷經 17 年、無數開發者心血累積的 CUDA 生態系,賦予輝達 GPU 自研 ASIC 難以複製的通用彈性。任何新的模型架構、任何新奇的研究方向,都能以最低摩擦在輝達硬體上完成原型開發與訓練。

然而,推論的經濟邏輯是殘酷的。自研 ASIC 在針對性推論工作負載上,可比通用 GPU 節省 30 至 40% 的電力。對現代 AI 機架耗電量動輒達 130 千瓦的資料中心而言,能源效率已從偏好化為生存命題。

市場算術

數字描繪出輝達中期市場地位的嚴峻走向。根據市場分析師數據,AI 自研 ASIC 市場年增速達 44.6%,遠超 GPU 的 16.1%。分析師預估,自研晶片到 2028 年可能佔 AI 晶片市場總量的 45%。更具體地,輝達在 AI 推論市場的佔有率,可能從當前逾 90% 跌至僅 20 至 30%;整體 AI 加速器市場份額預計在 2026 年底前從逾 95% 的高峰降至 75 至 80%。

業界人士以直白語言描述這一動態:超大型業者的基礎設施團隊在內部稱之為「輝達稅」(Nvidia tax)——為並不需要的 GPU 通用彈性所支付的溢價。對固定模型架構、每天處理數千億次推論的雲端業者而言,那份彈性就是純粹的額外開銷。

對台灣科技產業的意義

值得關注的是,無論哪個陣營最終勝出,台積電都是這場競爭中最穩定的受益者——輝達的 Vera Rubin、Google 的 Ironwood、亞馬遜的 Trainium3 與微軟的 Maia 200,全都仰賴台積電的先進製程生產。AI 晶片軍備競賽愈激烈,台積電的訂單只會愈多。

這場大分手,並非輝達走向衰亡的故事,而是 AI 供應鏈的結構性重組:數千億美元的硬體支出,將從單一供應商分散至更廣泛的自研矽片生態系。對於在 AI 基礎設施上佈局的企業與投資者而言,誰掌控了運算的「矽」,就掌控了智慧經濟的命脈。

輝達 自研晶片 AI晶片 谷歌 亞馬遜 微軟 Meta TPU 硬體
分享

相關報導

Meta 與 Broadcom 簽下超大規模客製晶片協議:承諾部署逾 1 吉瓦算力

Meta Platforms 於 4 月 14 日宣布大幅擴大與 Broadcom 的合作,承諾基於 Broadcom XPU 平台,跨多代 MTIA 晶片部署逾 1 吉瓦的客製 AI 加速器,合約期延伸至 2029 年。這項多年期協議清楚表明 Meta 減少對 Nvidia 依賴的決心,也是當前 AI 基礎設施軍備競賽中最具指標意義的一步。

1 分鐘閱讀

Google 在 Cloud Next 2026 發表 Ironwood TPU,並將第八代晶片拆分為訓練與推論兩條專用路線

Google 在 Cloud Next 2026 大會上正式推出第七代 Ironwood TPU,單顆晶片達 4.6 petaFLOPS、9,216 顆組成的超大 Pod 可輸出 42.5 exaFLOPS,效能較 TPU v5p 大幅提升 10 倍。同時預告第八代架構將一分為二:由 Broadcom 設計的訓練晶片「Sunfish」與 MediaTek 設計的推論晶片「Zebrafish」,均採台積電 2nm 製程,目標 2027 年量產。搭配 7.5 億美元合作夥伴基金與 A2A 智能代理協定擴張,Google 對 Nvidia AI 基礎設施霸主地位的挑戰已是史上最全面的一次。

1 分鐘閱讀