美國國防部批准八家AI公司進駐機密網路,刻意將Anthropic排除在外
美國國防部已批准七家主要科技公司(隨後增加至八家)將AI部署於最高機密等級的軍事網路,但因一場涉及戰爭中AI安全規範的法律爭議,刻意將Claude開發商Anthropic排除在外。
2026年5月1日,美國國防部宣布已與七家主要科技公司——亞馬遜AWS、Google、微軟、輝達、OpenAI、Reflection以及SpaceX——達成協議,允許這些公司將AI產品部署於五角大廈最高機密等級的計算環境之中。幾小時後,甲骨文(Oracle)悄然加入名單,最終數字增至八家。但有一個名字明顯缺席:Anthropic——開發Claude的AI安全公司,早前已被川普政府列入黑名單,並被認定為「供應鏈風險」。
這一宣布標誌著大型語言模型軍事化進程的重要轉折點,AI技術從日常生產力助手邁入美國軍方決策核心基礎設施的機密腹地。
IL6與IL7到底代表什麼
本次協議的核心涉及兩個安全分級:IL6(影響等級6)與IL7(影響等級7)——這是國防部用來管理不同機密程度國家安全資料的標準。IL6處理「秘密」等級資料,包括作戰計畫、兵力調動及情報摘要;IL7層級更高,管理情報系統中的限制性資料,一旦洩露可能對國家安全造成「極嚴重損害」。目前極少有商業技術平台曾獲授權在這些環境中直接運行。
對AI公司而言,獲得這兩個等級的許可意味著打開了一扇規模龐大的國防市場大門。五角大廈擁有逾340萬名軍事及文職人員,每日產生海量情報資料流,並維護複雜的後勤網路——理論上都是AI可以大規模優化的場域。五角大廈對這些協議的官方理由直截了當:「優化資料整合、提升戰士決策品質,以及強化態勢感知能力。」
官員們也說明了採用多供應商模式的戰略考量:目標是「建立一套避免AI供應商鎖定的架構,確保聯合部隊的長期靈活性」——這是對任何單一AI供應商押注都可能帶來嚴重風險的清醒認識。
Anthropic遭排除:安全護欄成了不合格理由
Anthropic被排除在外是本次公告中最具爭議性的部分。事件可追溯至2026年初,當時該公司與國防部就使用條款陷入公開對峙。
Anthropic的立場很清楚:在允許五角大廈於軍事網路上部署Claude之前,公司要求獲得書面保證,確保其模型不會被用於驅動完全自主的致命武器系統,也不會用於大規模國內監控。川普政府的國防部希望獲得「對所有合法用途不受限地使用Claude的權限」,拒絕了這一要求。五角大廈隨即升級,正式將Anthropic列為「供應鏈風險」——這個標籤此前只用於疑似與外國敵對勢力有所關聯的公司。
Anthropic提出訴訟。今年3月,加州聯邦法官批准了部分禁令,認定供應鏈風險的認定在憲法上過於寬泛,並寫道:「任何法規都不支持這種『奧威爾式』的邏輯——即一家美國公司僅因公開表達對政府政策的異議,就可被冠上潛在敵人和破壞者的標籤。」然而4月,上訴法院拒絕延長禁令,允許這一認定繼續有效。5月1日公布的獲批供應商名單中,Anthropic並不在列。
五角大廈官方援引的理由是此前的供應鏈風險認定。這一事件背後的潛台詞——一家要求為致命AI應用設置安全護欄的公司,竟被視為國家安全的負擔——在AI安全研究界和公民自由組織中引發強烈反彈。
這其中存在明顯的諷刺:獲批的多家供應商,包括OpenAI,近幾個月都已大幅轉向政府和國防合約。OpenAI曾在其服務條款中明文禁止軍事應用,並於2024年修改了這些政策。相比之下,Anthropic——正是由那些因安全顧慮而離開OpenAI的研究人員創立的公司——卻因試圖維持對最極端潛在用途的最低限度限制,而被擋在門外。
入圍的八家公司
八家獲批公司幾乎涵蓋了主要AI基礎設施生態系統的各個層次。微軟和亞馬遜AWS與聯邦政府已有深厚的既有合作關係,兩者都運營著已承載大量機密工作負載的政府雲端環境。Google是國防承包領域相對較新的玩家,但在2018年因員工抗議退出Project Maven之後,已穩步擴大其公共部門業務版圖。
輝達主要以晶片和基礎設施供應商的角色入選;其GPU是AI訓練與推斷的事實標準,納入機密網路的意義更多在於確保所有AI系統所依賴的計算底層獲得必要的安全許可。
OpenAI與SpaceX帶來互補能力——前者擁有前沿GPT模型和代理系統,後者提供Starlink通訊基礎設施和衛星連接,後者的技術近年來已在多個實際作戰場景中被廣泛使用。
Reflection是名單上公開資料最少的一家,幾乎沒有公眾知名度,其入選表明五角大廈也在為專門為國防設計的AI公司留出空間,而非僅限於現有的大型科技公司。
甲骨文在初次公告幾小時後加入,作為聯邦IT承包商已有悠久歷史,此次向IL6/IL7 AI工作負載的擴展,是其既有合作關係的自然延伸。
戰略意涵:爭奪AI軍事主導權
5月1日的公告是五角大廈將美國軍隊打造成「AI優先部隊」這一更宏觀、加速推進計畫的一部分。美國軍方對戰略賭注的認識十分清醒:中國已將AI軍事應用列為國防現代化的核心支柱,美國軍事規劃者得出結論,必須快速行動才能維持技術優勢。
多供應商結構旨在製造競爭與冗餘,同時避免完全依賴單一公司所帶來的單點失效風險。但這同樣帶來複雜的新問題:當在機密網路上運行的AI系統產生錯誤的情報摘要或有缺陷的打擊建議時,責任歸屬將以傳統軟體從未有過的方式變得模糊。
安全研究人員和國防政策分析人士也指出,將LLM這種難以對安全漏洞進行完整稽核的技術部署到最高安全級別的機密環境中,會引入全新的攻擊面。提示注入攻擊、模型幻覺以及資料投毒,都屬於五角大廈現有安全框架設計時根本未曾考慮到的風險類別。
據多份報導,白宮在本次公告前幾週重新啟動了與Anthropic的討論,暗示目前的排除或許不是最終結果。Anthropic最終能否以及以何種條件重新獲得DoD合約,將是今年AI安全規範在高風險政府應用中走向何方最具決定性意義的談判之一。
就目前而言,5月1日的協議傳遞的訊號清晰而尖銳:在華盛頓當前的政治氣候下,堅持為自主武器設置安全護欄——至少暫時——是一種競爭上的劣勢。