川普政府擬強制 AI 模型上市前審查,政策大逆轉的背後是一個秘密武器模型
川普政府正在研議一項行政命令,要求建立政府工作小組在 AI 模型公開發布前進行審查,這是在廢除拜登 AI 安全令 16 個月後的重大政策轉向。催化劑是 Anthropic 拒絕公開發布的網路安全模型 Mythos——這個已被 NSA 採用的 AI,被認為具備足以引發「網路安全大震盪」的攻擊性能力。
2025 年 1 月,川普甫一就任便以行政命令廢除了拜登政府的 AI 監管框架,宣告聯邦政府要退出矽谷的創新賽道。那道命令釋放的訊號非常清楚:科技業不需要華盛頓的「恩賜」。
然而僅僅 16 個月後,同一個政府正在考慮做出幾乎完全相反的事。
據《紐約時報》報導,並獲多個媒體證實,白宮高層官員近幾週已分別與 Anthropic、Google 及 OpenAI 的代表舉行會議,討論一項新行政命令的草案——要求 AI 模型在公開發布前,必須先通過一個由政府官員與技術專家共同組成的工作小組審查。這將是美國有史以來第一次在法律層面強制 AI 實驗室的發布權限受到外部監督。
白宮官員週一公開表示,相關報導目前屬「推測性質」,任何政策宣布都將由總統親自為之。但三大前沿 AI 公司同時出席白宮簡報這件事本身,已足以說明政策風向的微妙轉變。
事件起點:那個沒有公開發布的 AI 武器
促成這次政策大轉彎的直接導火線,是 Anthropic 的 Mythos 模型——一個被公司自行決定不對外公開發布的 AI 系統。
Mythos 並非消費型產品。Anthropic 開發它的目的明確指向網路安全領域,其能力涵蓋識別軟體漏洞、協助開發攻擊程式,以及自主探測網路防禦系統。Anthropic 自己的安全團隊在內部評估報告中描述,若這個模型公開發布,可能引發「網路安全大震盪」。
Anthropic 選擇了一個非常規的路徑:將 Mythos 提供給美國國家安全局(NSA)用於機密行動,同時拒絕商業化。這個決定製造出一個監管真空地帶——一家私人公司自主判定某個 AI 系統的危險性超出市場承受範圍,並在政府情報圈內悄悄部署,整個過程沒有任何法律框架規範。
這件事讓行政部門與情報圈的官員都感到不安:一家私人企業不經任何授權,就做出了影響國家安全格局的決定——而且做法看起來比某些政府機構更負責任,但這本身就是問題所在。
擬議審查機制的輪廓
目前草案細節有限且仍在討論中,但可見的框架包括:設立一個跨部門工作小組,成員來自 NSA、網路安全暨基礎設施安全局(CISA)以及近期成立的 AI 安全研究所(AI Safety Institute);建立基於能力門檻的審查觸發條件,而非覆蓋所有 AI 開發;設定實驗室在公開部署前須完成審查的時間窗口。
最關鍵的差異在於:與拜登時代的「提交資訊」要求不同,這個工作小組將擁有實質性的「延遲或附條件批准」權力。這是監管強度上的根本跨越。
三大 AI 公司對此的態度微妙分化。OpenAI 的代表在白宮簡報中據傳展現了建設性的參與姿態,Altman 此前也曾公開表示歡迎政府對前沿模型的監督介入。Anthropic 本身的安全優先文化使其在立場上最接近這項提案的精神。Google DeepMind 則長期在安全研究上投資,至少在口頭上支持政府協調原則。
監管的核心矛盾:誰掌握發布的鑰匙?
更深層的張力在地緣政治維度上展開。任何要求美國 AI 公司在發布前等待政府審查的機制,都將為中國競爭對手製造時間窗口。深度求索(DeepSeek)的快速模型迭代節奏,以及其在更少算力下比肩前沿性能的能力,已讓這個論點變得具體而迫切。
反駁者的立場同樣有力:核能與生物技術的歷史先例說明,某些能力的擴散風險足以讓政府介入事前審查——不是因為這麼做完全沒有代價,而是不這麼做的代價更大。Mythos 事件提供了一個罕見的具體案例:一家私人公司不經監督便開發出具備戰略意義的攻擊性 AI 工具。
但批評者也指出,核武和生物技術的審查框架建立在物理媒介的稀缺性上——鈽難以複製,病原體有防護要求。AI 模型權重可以在幾分鐘內複製全球,跨越邊境就像一個 API 呼叫。用設計給慢速產業的管制框架,能否適用於一個每隔數月就翻新一代的技術,是個開放性問題。
接下來的走向
白宮尚未承諾任何最終決定的時間表。國會中雙黨的 AI 監管立法嘗試持續推進但尚未成形,行政命令路徑提供了更快速的政策工具。對三大 AI 公司來說,無論最終結果如何,當前最務實的選擇是開始建構審查合規的內部基礎設施——據悉三家公司都已在私下進行這類準備。
對台灣及亞洲科技生態系而言,這場政策辯論的結果同樣值得關注。如果美國建立起 AI 前沿模型的上市前審查制度,其他國家——包括歐盟、日本,乃至台灣——都將面臨是否跟進的壓力,以及如何界定本國AI能力監管邊界的複雜選擇。
AI 監管的潘朵拉魔盒,正在以一個誰都沒有預料到的方式,從美國政府內部打開。