前 OpenAI 技術長 Mira Murati 創辦的 Thinking Machines Lab 與 Google Cloud 簽署數十億美元算力協議
由前 OpenAI 技術長 Mira Murati 創辦僅 14 個月的 AI 新創 Thinking Machines Lab,已與 Google Cloud 簽署數十億美元基礎設施協議,取得 Nvidia GB300 晶片算力,用於訓練與部署其旗艦產品「Tinker」。Thinking Machines 曾以 120 億美元估值完成史上最大規模種子輪募資(20 億美元),成為本月繼 Anthropic 與 Meta 之後,第三家與 Google 鎖定大規模算力合作的前沿 AI 實驗室。
2024 年 9 月,Mira Murati 離開 OpenAI 時,幾乎沒有人預料到她在 14 個月後會是全球資本最雄厚的 AI 新創公司的掌舵人,並以數十億美元規模的合約與 Google Cloud 平起平坐談判。4 月 22 日,TechCrunch 獨家報導,Murati 於 2025 年 2 月創立的 Thinking Machines Lab 已與 Google Cloud 簽署新的多十億美元協議,在既有合作關係的基礎上,取得 Nvidia 最新 GB300 晶片的算力,專門用於訓練與部署公司的旗艦 AI 平台。
這項協議讓 Thinking Machines 與 Anthropic、Meta 並列,成為本月向 Google 鎖定大規模算力承諾的三家前沿 AI 開發商。如此密集的需求集中,既反映了 Google 硬體雄心的說服力,也揭示了前沿實驗室在確保下一代算力來源時所承受的壓力。
Thinking Machines Lab 是誰?
Murati 自 2018 年起擔任 OpenAI 技術長,在任期間主導了 GPT-4、DALL-E 3、Sora 與 o1 推理模型系列的開發與上市。她在 2024 年 9 月突然辭職,在隱身數個月後,於 2025 年 2 月宣布創立 Thinking Machines Lab。
公司的種子輪融資一出手便打破了矽谷紀錄:以 120 億美元估值完成 20 億美元種子融資,成為創投史上規模最大的種子輪——遠超過所有先例,也充分說明 Murati 的個人聲望足以讓頂級機構投資人接受通常只有成熟企業才能享有的條件。
這個估值放在台灣科技投資語境下尤其值得關注:20 億美元約等於 650 億台幣,而公司此時甚至還沒有任何商業產品。這樣的資本集結,顯示的不僅是投資人對 Murati 個人的信任,更是對她所押注的技術方向的強烈認可。
Tinker:企業專屬的前沿模型工廠
Thinking Machines 的核心產品「Tinker」,是一個自動化建立客製化前沿 AI 模型的平台。與 OpenAI、Anthropic 或 Google 銷售通用大型語言模型的策略不同,Tinker 讓企業可以依自身的資料、領域詞彙與效能需求,按需「訂製」一個專屬前沿模型。
Tinker 的核心技術是對強化學習(Reinforcement Learning)的重度依賴——這正是推動 DeepMind、OpenAI 推理部門以及 DeepSeek 等機構近期重大突破的訓練典範。強化學習的計算成本高昂,對基礎設施的要求也特殊:它需要在模型、回饋訊號與訓練環境之間維持緊密耦合的反饋迴路,通常要跨數千顆晶片同時運行。
Google 在宣布這項協議時,特別點出其基礎設施非常適合 Thinking Machines 的強化學習工作負載——這不是閒筆,而是一個精確的技術聲明。Google 多年來投入大量資源打造的晶片間互連架構與記憶體共享機制,正是為這種分散式強化學習訓練量身設計的。
協議結構與戰略邏輯
這項 Google Cloud 協議的價值落在「數十億美元」的單位數區間,且不具排他性——Thinking Machines 仍保有使用其他雲端供應商的自由,這給了這家新創在算力策略上的靈活度,也避免了單一供應商綁架的風險。新協議在 2025 年既有合作關係的基礎上擴展而來,當時 Thinking Machines 已開始使用 Google 的基礎設施進行初期模型訓練。
新協議的核心是 Nvidia GB300 晶片——但這批晶片是透過 Google Cloud 平台取得的,而非直接向 Nvidia 採購。這個路由在商業上意義重大:Google 同時扮演基礎設施供應商與長期合作錨定者的角色,為一家可能需要數年持續大量算力的新創公司,提供一條穩定的算力供應鏈。
對 Google 而言,這筆交易的戰略算盤同樣清晰:在 Thinking Machines 尚未推出商業產品之前便拿下這家全球知名度最高的新生前沿 AI 實驗室作為客戶,等於為未來可能達到天文數字的算力消耗預先插旗。如果 Tinker 取得商業成功,它的基礎設施需求將以指數級擴展,而今日建立的供應商關係將產生極大的慣性。
格局:前沿 AI 版圖的重組
從更大的視角看,這份協議是本月 Google 刻意推進的一場算力聯盟建構的一部分。Anthropic 的算力協議正在擴大至 2027 年的 3.5 GW 規模;Meta 也已在本月簽署數十億美元承諾;如今再加上 Thinking Machines——這三個承諾加在一起,為 Nvidia 的算力壟斷地位構成了結構性挑戰,而這一挑戰不是靠晶片規格比拼取得的,而是靠 Google 的財務實力與基礎設施投入,為前沿 AI 實驗室提供了一條可信的替代供應鏈。
Thinking Machines 是 2024、2025 年間由前 OpenAI、DeepMind 成員所創辦的一批高知名度 AI 實驗室之一。這個世代的共同特點是:儘管尚無商業收入,卻能以過去難以想像的估值獲得資本支持。支撐這一現象的共同邏輯是:AI 能力的前沿尚未定型,現有模型存在可突破的缺口,一支頂尖小型團隊加上足夠的算力,仍有機會訓練出與頂級大廠匹敵、甚至超越的模型。
這個賭注能否兌現,取決於許多資本無法保證的因素:研究突破、執行品質,以及市場是否真的願意為「真正的客製化模型」而非「微調版通用模型」支付溢價。但在創立僅 14 個月、尚無商業產品的情況下便拿下數十億美元的基礎設施資源,Thinking Machines 已為自己爭取到充裕的時間去找答案。
對 Murati 個人而言,這份協議是一段備受矚目的重生之旅的重要里程碑。她從 OpenAI 頂尖職位主動離開,選擇從零開始;14 個月後,她已在同一張談判桌上與 Anthropic 和 Meta 平起平坐。無論 Tinker 最終走向何方,這條軌跡都已讓人難以忽視。