Google簽署五角大廈機密AI協議,拒絕合作的Anthropic被列為「供應鏈風險」
Google已允許美國國防部在機密網路上部署Gemini AI,授權條款為「任何合法目的」——正是Anthropic此前拒絕接受的相同條款。Anthropic因此遭美國政府標記為「供應鏈風險」,目前雙方官司仍在進行中。逾600名Google員工連署公開信,要求執行長桑達·皮查伊撤回這項決定。
Google與美國國防部(DoD)簽署了一份機密協議,允許五角大廈在隔離的機密網路上部署Gemini AI模型,授權用途為「任何合法的政府目的」。這與Anthropic幾個月前拒絕接受的條款幾乎一字不差——而那次拒絕,已讓這家AI新創付出被美國政府列為「供應鏈風險」的沉重代價。
此舉使AI產業出現了一條罕見的道德裂痕:一邊是願意向華盛頓全面交出控制權的業者,另一邊是堅守底線、卻可能付出商業代價的公司。
合約內容與授權範圍
根據協議,五角大廈可在氣隙(air-gapped)機密網路上運行Gemini,Google無法查看查詢內容、生成的輸出結果或任何基於這些輸出所做的決策。
合約確實包含一項保護條款:「雙方同意,AI系統不得用於國內大規模監控,或在缺乏適當人類監督與控制的情況下,用於自主武器(包括目標選擇)。」然而批評者——包括Google許多工程師——指出,在機密、隔離網路上,Google根本沒有任何技術手段確保這項條款獲得遵守。文字寫進合約是一回事,稽核執行完全是另一回事。
此次合作讓Google與OpenAI、馬斯克的xAI並列,成為三家已向美國軍方提供機密AI服務的科技巨頭。
Anthropic為何說不
五角大廈提出的「任何合法目的」條款並非新鮮事——幾個月前,國防部以幾乎相同的條件找上Anthropic,但遭到拒絕。Anthropic執行長達里奧·阿莫代(Dario Amodei)表示,這樣的開放式授權可能讓政府將其模型用於大規模國內監控,或用於無人干預即可自主選定並打擊目標的武器系統——兩者都與公司的「憲法式AI」安全原則相牴觸。
Anthropic的立場並非私下表達,而是公開聲明:公司願意在適當安全規範下支援國家安全應用,但不會簽下一份空白支票。
美國國防部的回應毫不留情:將Anthropic列為**「供應鏈風險」**——這個標籤通常只留給外國敵手或與敵對國有關連的企業。此認定實際上封堵了聯邦機構採購Anthropic模型的管道,並可警示其他承包商避免整合其技術。Anthropic隨即提告,聯邦法官上個月裁定暫停執行該認定,待訴訟期間持續有效——但官司仍在進行,被美國政府貼上供應鏈風險標籤的名譽與商業損失,難以估量。
Google員工集體反彈
在Google內部,這項決定引發了自2018年「Project Maven」無人機AI爭議以來最大規模的員工抗議——當年的反彈最終導致大規模出走與Google退出合約。
逾600名Google員工——其中許多來自DeepMind AI研究部門——連署致執行長桑達·皮查伊(Sundar Pichai)的公開信,要求公司拒絕機密軍事AI業務,並呼籲管理層效仿Anthropic,堅持任何軍事用途的AI都必須有公開、可稽核的安全規範。
公開信中強調一個核心顧慮:與企業雲端部署不同,機密網路在設計上就是要阻絕外部透明度。員工寫道:「我們看不到自己的工作被如何使用,這不是一項功能,而是一種責任的棄守。」
皮查伊仍宣布簽署了這項協議。
一場策略上的精算
從商業角度看,Google的決定並不難理解。五角大廈的AI合約每年代表數十億美元的機會,而國防部已明確表示將加速AI整合至情報分析、後勤、通訊乃至作戰規劃等領域。率先在機密網路建立部署的業者,將形成競爭對手難以撼動的深層整合優勢。
Google也深知競爭態勢的壓力:OpenAI在Anthropic拒絕後旋即與國防部簽約,xAI緊隨其後。眼睜睜看著兩大競爭對手鞏固政府市場地位,讓Google的算盤變得清晰,儘管道德問題依然複雜。
值得注意的細節是:在宣布機密協議的同時,Google悄悄退出了一項1億美元的國防部無人機群(drone swarm)競標——顯示公司可能在選擇性地劃定哪些具體軍事應用可以接受,即便整體上已打開機密大門。
AI產業的分裂時刻
這起事件標誌著AI產業與政府權力關係的真正轉折點。多年來,主要AI實驗室在一個共同的——儘管往往是隱性的——假設下運作:他們可以為自家技術的使用設定道德底線,即便面對國家行為者亦然。Anthropic的拒絕是對這個假設最明確的公開測試,而國防部的反應快速且嚴厲。
這個結果現在對其他實驗室形成了強大的威懾:如果拒絕五角大廈的條件會換來「供應鏈風險」認定,在未來數年寒蝕聯邦採購機會,那麼任何一家風險投資支持的AI公司,最理性的商業計算都是服從。
倡導AI問責的人士指出,這正是為什麼法定監管機制——而非企業自願倫理政策——如此必要。若沒有可執行的規則來規範政府機構可以向AI公司要求什麼、AI公司在機密環境中被允許做什麼,當前搶奪國防部合約的競賽,將系統性地侵蝕各實驗室目前尚存的任何道德底線。
後續發展
Anthropic訴訟案可能為政府採購權力和「供應鏈風險」認定的界限樹立重要先例。法律學者指出,以「供應鏈風險」標籤對付一家因拒絕商業條款而非從事惡意行為的本土企業,在法律上異乎尋常,且可能構成濫權。
對Google而言,短期的商業算盤看來有所斬獲:公司在4月29日財報季以強大的機密政府AI組合入場。但長期的聲譽與人才成本——特別是當它與Anthropic等競爭對手爭搶那些對自身研究工作去向日益直言不諱的頂尖AI研究者時——仍有待觀察。
那600名連署員工,目前還在他們的座位上。