美國政府與 Google、微軟、xAI 簽署協議:前沿 AI 模型上市前須接受聯邦評估
美國國家標準與技術研究院(NIST)旗下的 AI 安全與創新中心(CAISI)與 Google DeepMind、微軟及 xAI 簽署預部署測試協議,聯邦評估人員可在模型公開前取得降低安全護欄的版本進行國家安全評估。該計劃於 2024 年由 OpenAI 和 Anthropic 率先參與,如今幾乎涵蓋美國所有主要前沿 AI 實驗室。
美國政府悄悄完成了拜登政府 AI 行政命令以來規模最大的一次 AI 監管版圖擴張。NIST 旗下的 AI 安全與創新中心(CAISI)於 5 月 5 日宣布,已與 Google DeepMind、微軟和 xAI 簽署預部署測試協議,讓聯邦評估人員能在這些系統公開上市前,提前取得前沿模型進行評估。
這份協議延伸自 2024 年啟動的計劃,當時 CAISI 首先與 OpenAI 和 Anthropic 達成類似安排。迄今,該中心已完成逾 40 次模型評估,包括多個尚未公開的尖端系統。納入 Google DeepMind、微軟與 xAI 後,該計劃已實質覆蓋在美國運營的所有主要前沿 AI 實驗室。
協議的實質內容
這批協議的技術授權範圍,遠比多數 AI 治理公告來得廣泛。根據協議,企業需向 CAISI 提供已移除或降低安全護欄的模型版本——理由是評估人員必須看到模型在沒有對齊約束下的真實能力天花板。
這與外部研究人員透過公開 API 進行紅隊測試的體驗有本質差異。透過標準 API 壓力測試,外部研究者看到的是已對齊、已過濾的版本;CAISI 取得的則更接近原始能力評估,可揭示模型在沒有生產安全層保護下的潛在能力,例如生成大規模殺傷性武器指南、協助規劃網路攻擊等。
聯邦政府評估人員透過「負責任 AI 國家安全工作組」(TRAINS Taskforce)協作進行評估,這是一個整合國防、情報和文官機構專業人員的跨部門小組,能提供任何單一機構都無法複製的多元威脅模型視角。
為何重要性超過表面
AI 治理公告往往止於新聞稿。這次不同,有兩個原因。
第一,「自願性」協議的約束力並不如表面看起來那麼軟弱。目前受 CAISI 協議覆蓋的五家實驗室——OpenAI、Anthropic、Google DeepMind、微軟、xAI——都將「負責任的 AI 開發」作為品牌核心。若被視為阻礙聯邦監管,在企業和政府合約高度依賴信任度的環境中,代價極為高昂。這些協議在某種程度上發揮了市場紀律機制的作用。
第二,過去約 18 個月完成的 40 餘次評估,正在形成一個機構性的知識體系,記錄了前沿模型的能力邊界與限制。這個知識庫不存在於任何單一公司的 AI 安全團隊。CAISI 坐鎮各大實驗室評估的交叉點,正在積累有關能力發展軌跡的比較性情報——這正是在風險成為現實之前預判風險所需的關鍵資訊。
中國實驗室的缺席
CAISI 計劃最明顯的漏洞,是完全沒有中國前沿實驗室的參與——尤其是 DeepSeek。DeepSeek 於四月底發布的 V4 模型在多個維度上與 GPT-5 互有勝負,卻完全不受任何美國監管框架約束。它的訓練資料、安全對齊方法和能力上限,只能透過公司自己的技術報告和外部逆向工程來推測。
這種不對稱性令人愈發不安。美國實驗室現在要接受政府的預部署審查,在運營彈性上受到限制;中國競爭對手在國內市場不受任何類似審查,也沒有國際框架能施加這樣的約束。
CAISI 官員在國會作證和公開聲明中多次指出這一缺口。難點不在於找到意願,而在於中國實驗室沒有法律義務配合,而華盛頓與北京之間的 AI 安全協調外交機制,至今仍處於萌芽階段。
xAI 的意外入列
本輪協議中,馬斯克旗下 xAI 的加入是政治上最令人意外的部分。馬斯克向來是聯邦 AI 監管的強烈批評者,公開立場頻繁與這類監管機制對立。
協議時間點同樣耐人尋味:此刻正值馬斯克與 OpenAI 法律訴訟進行中,xAI 也準備在未來幾個月發布備受矚目的新 Grok 模型。參與 CAISI 測試對 xAI 可能有多重考量:向政府客戶展現誠意、在潛在 IPO 審查前預示監管合規立場,以及將 Grok 定位為政府部署的「安全」選項。
下一步走向
CAISI 將這批協議定位為更持久 AI 監管體系的基礎,但現行結構並無執法強制力。若評估發現某個未發布模型存在嚴重國家安全風險,目前沒有任何自動法律機制能阻止公司照樣發布。這些協議的性質是協作而非規管。
國會自 2024 年起持續嘗試立法,要求前沿 AI 系統進行強制性預部署審查,但多個法案都在委員會卡關。CAISI 建立的自願性框架,一方面是應對立法停滯的緩衝——證明監管不需要強制審查也能實現——另一方面也是為何立法應將這套已在運作的機制法制化、增加預算支持的結構性論據。
誕生於拜登時代的 CAISI 框架,在對 AI 監管態度更為保守的現任政府下得以存續。它能否撐過下一個政治周期,以及能否在此期間獲得任何具約束力的法律授權,將取決於遠超任何 AI 實驗室技術能力之外的政治動態。