跳至主要內容
FAQ

美國國防部核准七家科技巨頭進入機密 AI 網路,Anthropic 遭拒之門外

美國戰爭部已授權微軟、亞馬遜、Google、OpenAI、SpaceX、輝達及 Reflection 七家公司,將其 AI 系統部署於最高機密軍事網路;唯獨 Anthropic 遭到排除,因拒絕移除對自主武器與大規模監控的使用限制,而被五角大厦列為供應鏈國家安全風險。

1 分鐘閱讀

美國戰爭部劃下了 2026 年 AI 政策最具決定性意義的一條線:七家科技公司獲准將其 AI 系統部署於五角大厦最高機密的軍事網路,而直到不久前仍是唯一獲准進入這些網路的 AI 公司 Anthropic,卻被明確拒於門外。

這批協議於 2026 年 5 月 1 日宣布,涵蓋 Impact Level 6(IL6)與 Impact Level 7(IL7)網路環境——亦即用於機密與絕密軍事行動的基礎設施。獲准的七家公司分別為:微軟、亞馬遜雲端服務(AWS)、Google、OpenAI、SpaceX、輝達(Nvidia),以及輝達投資的新創公司 Reflection。部分媒體報導甲骨文(Oracle)也是第八家簽約方。這些企業將把各自的 AI 能力整合進五角大厦的作戰與情報系統,應用範圍涵蓋電腦視覺、生成式 AI 決策輔助與資料運營。

被落下的那家公司

這場宣布最引人注目之處,在於誰缺席了。在 2026 年 2 月以前,Anthropic 是唯一一家獲准在國防部機密網路上部署 AI 的公司。這個得來不易的獨家地位,在國防部長彼得·赫格塞斯(Pete Hegseth)簽下一紙命令,將 Anthropic 列為「供應鏈風險」之後,傎刻瓦解。

這個認定創下了美國科技政策的先例。「供應鏈風險」標籤歷來是针對外國對手的工具——最典型的例子是川普首任期間被列入實體清單的華為與中芯國際。將同一套框架套用在一家舊金山 AI 新創公司,無論從哪個角度看都是非比尋常的舉措。

衝突的根源清晰明瞭:使用政策。Anthropic 的服務條款禁止將 Claude 用於對美國公民的大規模國內監控,以及完全自主武器系統——即在沒有人類參與決策的情況下自行選擇並攻擊目標的 AI。五角大厦在現任領導層下尋求重新談判這些條款,堅持 Anthropic 應允許軍方以「一切合法目的」使用 Claude,不設任何例外。Anthropic 拒絕了。

法律攻防戰

Anthropic 的回應迅速而直接。2026 年 3 月,公司對川普政府提起訴訟,要求撤銷五角大厦的黑名單認定,主張該認定在程序上不當且違反正當程序。法律戰已引發其自身的戲劍性:4 月,Anthropic 在上訴法院尋求臨時阻止黑名單效力的請求遭到駁回,這意味著在底層訴訟推進期間,這一認定仍持續有效。

白宮與五角大厦在此議題上公開出現裂痕。部分高層官員私下對將國內公司列為供應鏈風險感到不安,而國防圈的另一批人則支持赫格塞斯的決定。五角大厦的首席技術長在 5 月初確認 Anthropic 仍在黑名單之列,並將此爭議定性為與其他 AI 採購決策「無關的獨立問題」。

IL6/IL7 授權意味著什麼

對任何有志政府市場的科技公司而言,IL6 與 IL7 授權的重要性難以誤大。IL6 涵蓋機密等級(Secret)的國家安全資訊;IL7 則涉及特殊取用計畫(Special Access Programs)及其他絕密區分資料。取得這些環境的使用授權,實際上是在正規軍事應用中部署 AI 的必要門票——包括目標輔助、信號情報分析、第動條件下的後勤小物、戰場模擬等。

對微軟(Azure Government)、亞馬遜(GovCloud)、Google(Federal Cloud)而言,IL6/IL7 授權是建立在現有機密雲端基礎設施之上的延伸。對 OpenAI 與 SpaceX 而言,這份協議標誌著兩家公司與國防建制的深化關係,是私人企業中髦少匹配的層級。輝達的加入,則反映了其 GPU 基礎設施對軍事 AI 算力的核心地位。

Reflection 是七家中最不知名的一家,其特別之處在於它是從頭针對國防用途設計的新創公司,而非將消費端基礎設施改造後套上安全外殼。

Scale AI 另奄 5 億美元大單

與機密網路協議平行展開的,是另一場重要的國防 AI 採購。由 Meta 支持的資料基礎設施與模型評估公司 Scale AI,從五角大厦首席數位與人工智慧辦公室(CDAO)取得了 5 億美元的擴大合約——是原先 1 億美元合約的五倍。此次擴大反映了 Scale AI 平台在各五角大厦單位的快速普及,應用場景涵蓋電腦視覺模型開發、生成式 AI 決策支援與 MLOps。

Scale AI 的合約採用其他交易授權(OTA)機制,刻意繞過緩慢的傳統採購流程,讓任何五角大厦下屬單位都能在不另行競標的情況下啟動自己的 AI 專案。5 億美元的上限,是對「全部門需求已超出原合約能承載範圍」這一現實的正式確認。

五角大厦的戰略盤算

五角大厦官員以明確的競爭語言框架了這批七家公司的協議。一位官員表示,國防部「永遠不會再」依賴單一 AI 供應商——這是對 Anthropic 此前作為唯一機密網路核准廠商所造成的集中風險的直接回應。新策略在主要 AI 平台間建立冗餘,確保軍方不再受制於任何單一公司的持續合作意愿。

這種框架也反映出川普時代更廣泛的國防科技主義:以廣泛的商業 AI 採用為優先,而非前任政府那種審慎談判的使用框架。給 AI 產業的訊號再清晰不過:對軍事用途設限的公司,將被排擠在外。

AI 安全辩論的新試金石

Anthropic 的處境已成為 AI 安全承諾與商業可行性之間緊張關係的最具代表性案例。Anthropic 拒絕允許自主武器用途,並非內部不公開的私人政策,而是白紙黑字寫在使用條款中、也是其作為注重安全的 AI 開發商品牌定位的核心。

五角大厦的反應說明了一件事:安全承諾不是免費的。被排除在機密網路部署之外,意味著 Anthropic 失去了一大類政府收入,也失去了在國家安全情境下影響 AI 應用方式的機會。更深層的問題是,這創造了一種搖曲的激勵結構:愿意對軍事用途設限更少的公司,反而獲得最敏感的使用授權。

業界觀察人士指出其中的反諷:就在 Anthropic 以商業表現超越 OpenAI、成為私人 AI 市場最大營收公司的同一時刻,它卻因一場關於自主武器的政策爭議,被系統性地排除在最大規模的政府採購類別之外。商業勝利與監管放逐並存的雙重現實,已成為 2026 年 AI 政策最鮮明的張力之一。

Anthropic 訴訟的最終結果,或許將決定具備安全限制的 AI 公司是否有可能參與機密國防市場,又或者五角大厦的「一切合法目的」標準,將成為政府 AI 合約的事實行業門滿。

對台灣的科技政策制定者而言,這場風波有深刻的參考價値:當 AI 被整合進國家安全架構,使用政策的邊界就不再是企業的商業選擇,而是地緣政治的博弈籌磼。如何在擁抜 AI 效益的同時設定合理的倫理底線,將是各國政府在這個新時代必須面對的核心挑戰。

pentagon military-ai anthropic policy classified national-security dod
分享

相關報導

美國政府與 Google、微軟、xAI 簽署協議:前沿 AI 模型上市前須接受聯邦評估

美國國家標準與技術研究院(NIST)旗下的 AI 安全與創新中心(CAISI)與 Google DeepMind、微軟及 xAI 簽署預部署測試協議,聯邦評估人員可在模型公開前取得降低安全護欄的版本進行國家安全評估。該計劃於 2024 年由 OpenAI 和 Anthropic 率先參與,如今幾乎涵蓋美國所有主要前沿 AI 實驗室。

1 分鐘閱讀

川習北京峰會或納入 AI 正式對話,美中兩強試圖為科技軍備競賽劃定紅線

美國與中國正在評估將 AI 治理納入 5 月 14 至 15 日川普與習近平北京峰會議程的可能性,此舉將是川普政府任內首次美中 AI 雙邊正式對話。討論焦點預計聚焦於防止 AI 引發自主武器升級失控、阻止非國家行為者利用開源 AI 模型實施大規模攻擊,以及確立 AI 不得介入核武發射決策的防護機制。

1 分鐘閱讀