跳至主要內容
FAQ

科技巨頭 AI 安全大匯流:CAISI 簽署測試協議,業界自訂「AI 憲法」

Google DeepMind、Microsoft 與 xAI 與美國商務部旗下的 CAISI 簽署正式的上市前安全測試協議;與此同時,Apple、Google 與 Microsoft 也在協調制定一套業界稱之為「AI 憲法」的多層次自願安全承諾框架。兩項舉措並行推進,標誌著全球最大 AI 企業在治理策略上的集體轉向。

1 分鐘閱讀

過去 72 小時,一連串 AI 治理公告接連發出。單看每一條,似乎只是例行性進展;但放在一起,呈現出更具意義的圖景:全球最大的 AI 公司,似乎正在集體得出一個結論——主動引領安全議題,比起對抗它,是更為明智的戰略選擇。

2026 年 5 月 5 日,美國商務部旗下國家標準與技術研究院(NIST)的 AI 標準與創新中心(CAISI)宣布,已與 Google DeepMindMicrosoftxAI 簽署正式的前沿 AI 上市前安全測試協議。隔日,多家媒體報導指出,Apple、Google 與 Microsoft 也正在協調一套更廣泛的業界自律框架——被外界冠以「AI 憲法」之名——一套多層次的共同安全承諾,相關企業表示,這比坐等國會立法後被動接受要好得多。

這兩件事都不是被迫的,而是主動選擇的。這個「選擇」本身,才是真正值得關注的事。

CAISI 協議:政府獲得模型預覽權

CAISI 成立的使命,是對前沿 AI 系統進行嚴格的獨立評估,重點聚焦於國家安全風險面向:網路安全漏洞、生物安全威脅、化學武器潛在用途,以及外國植入後門或隱藏惡意行為的可能性。截至本週公告,CAISI 已完成逾 40 次此類評估,其中包括對尚未公開發布的前沿系統的評估。

與 Google DeepMind、Microsoft 和 xAI 的新協議,擴大了 CAISI 的存取權限並正式化了雙方關係。根據協議條款,CAISI 將能夠在模型公開上市之前進行前沿評估,也可在上市後進行持續評估及開展研究合作。美國政府各機構的評估人員可參與審查,跨機構專業知識則透過 CAISI 召集的 TRAINS 工作組協調整合——這是一個專門聚焦於前沿 AI 國家安全風險的跨機構專家小組。

一個值得關注的方法論細節:為進行全面的能力評估,開發商被允許向 CAISI 提供已降低或移除安全防護措施的模型版本。這讓評估人員得以探測模型在不受限制時的原始能力——而非只能看到面向公眾的安全過濾版本。這是一項重大的存取承諾,充分說明每家公司對此次評估程序的認真態度。

上述協議屬於自願性質,並無法律強制力。但此處的「自願」有其特定脈絡:川普政府自 2025 年 1 月以來,已廢除了拜登時代建立了政府與前沿模型開發者互動框架的 AI 安全行政令。此次 CAISI 協議,代表業界主動介入,補上了已消失的政府存取管道——無論動機是出於真誠的安全關切、希望形塑未來可能出台的強制性制度,還是兩者兼而有之。

「AI 憲法」:自律作為戰略

與 CAISI 協議並行的,是多家媒體描述的一項規模更大的協調行動:Apple、Google、Microsoft 及其他主要 AI 利益相關者,正在共同制定一套業界稱之為「AI 憲法」的自律框架——涵蓋 AI 系統透明度、部署防護措施、最低安全測試標準,以及負責任揭露規範等方面的共同行為承諾。

具體文本仍在協商中,但背後的戰略邏輯已被多家參與企業的高管明確表述:當三家最大的 AI 基礎設施供應商在一項標準上達成一致,那個標準實際上就成了整個行業的底線

業界常被援引的歷史類比,是 1990 年代金融服務業自發建立風險管理標準的案例,以及電信業在 1996 年《電信法》通過前的自律運動。在這兩個案例中,主流業者之所以參與標準制定,部分原因在於他們明白:影響未來監管的形態,比全面對抗監管更有價值——而自己能遵守的標準,優於被外界強加的標準。

對 2026 年的科技巨頭而言,這套計算邏輯如出一轍。一次高調的 AI 失敗引發的國會聽證——聲譽損失、股價下挫、敵意立法、海外市場限制——其代價現已被普遍認為超過持續安全投入的成本。「AI 憲法」在某種程度上,是一份保險單。

Apple 的獨特立場

Apple 參與更廣泛安全協調的姿態值得單獨審視,因為這家公司並未以與 Google、Microsoft 乃至 xAI 相同的方式捲入前沿 AI 的正面競爭。Apple Intelligence 的 AI 功能套件,主要建構在規模較小、功能專一的裝置端模型上,而非大型雲端前沿系統。

Tim Cook 的團隊始終將這種架構選擇定框為隱私優勢:因為資料從不離開使用者裝置,其他雲端 AI 所面臨的隱私問題根本不存在。在「AI 憲法」協商的脈絡下,Apple 的論點是:其裝置優先、隱私內建的 AI 架構,本身就是一種安全形式——而其他公司現在正試圖透過治理框架來解決的問題,Apple 早已在架構層面處理完畢。

這讓 Apple 佔據了一個微妙的位置:參與業界安全對話,同時隱隱傳達著「我們在架構上早就做對了」的潛台詞。

仍然缺席的玩家

這幅圖景尚未完整。OpenAI 和 Meta 目前看來都不在 CAISI 協議的簽署方名單中,也非「AI 憲法」進程的主要推動者——儘管 OpenAI 已透過其他管道向政府提供模型存取。若這兩家主要業者的缺席情況持續,將在業界自律框架上留下明顯缺口。

Anthropic 的處境同樣複雜。該公司的模型已透過 Palantir 的 Maven Smart System 嵌入美國保密網路,而川普政府早先試圖限制 Anthropic 取得政府合約的舉措,在各方壓力下已告撤回。但 Anthropic 在上週公布的五角大廈 AI 協議名單中仍明顯缺席,它與正式自願治理進程的關係也仍不明朗。

此外,自願框架在本質上是無法強制執行的。「AI 憲法」沒有違約懲罰機制、沒有獨立稽核流程,也沒有處理「宣稱合規但未達標」企業的既定程序。這些侷限並不足以否定這項行動的意義,但在評估任何承諾的實質價值時,是不可忽視的背景。

更大的圖景

CAISI 協議與「AI 憲法」倡議的同步推進,代表著 AI 治理史上一個特定的時間節點:科技業停止將安全監管主要視為待最小化的束縛,轉而開始將其視為可主動形塑的競爭地形。

這種轉變究竟源於對 AI 安全的真誠關切、精密的監管佈局,還是對「快速行動、事後補救」時代的風險收益計算有了更清醒的認識?觀察者們的辯論不會停止。但更難辯駁的是方向本身:在 2026 年 5 月,全球最大的 AI 公司正在選擇在部署前向政府開放更多模型存取,也在選擇彼此之間協商共同的安全標準。一年前,這兩件事都沒有發生。

對政策制定者、監管機構和公眾而言,這些舉動的實際意義只能隨時間驗證——具體而言,取決於這些自願承諾是否在實踐中得到落實,以及 CAISI 的評估結果是否能為公眾提供任何關於已識別風險及其處理方式的透明資訊。

AI 政策 AI 安全 CAISI Google DeepMind Microsoft xAI Apple 自願標準
分享

相關報導

EU AI 法案 8 月 2 日高風險截止日迫近,三方談判陷入僵局

歐盟史上最嚴格的 AI 合規要求——高風險 AI 義務——將於 2026 年 8 月 2 日正式生效,距今不到 90 天。然而,關於延期的「數位 AI 綜合法案」談判在 4 月 28 日的三方協商中無疾而終,下次會議訂於 5 月 13 日,而多數企業連高風險 AI 系統的基本清單都尚未建立。

1 分鐘閱讀

川普政府擬強制 AI 模型上市前審查,政策大逆轉的背後是一個秘密武器模型

川普政府正在研議一項行政命令,要求建立政府工作小組在 AI 模型公開發布前進行審查,這是在廢除拜登 AI 安全令 16 個月後的重大政策轉向。催化劑是 Anthropic 拒絕公開發布的網路安全模型 Mythos——這個已被 NSA 採用的 AI,被認為具備足以引發「網路安全大震盪」的攻擊性能力。

1 分鐘閱讀