OpenAI、Anthropic、Google聯合出擊,阻斷中國AI模型「蒸餾抄襲」
全球三大AI巨頭透過前沿模型論壇正式共享情報,協力封堵「對抗性蒸餾」攻擊——中國AI業者以自動化程式向美國模型發送數百萬筆提示,藉此複製模型能力。Anthropic單獨記錄到1600萬次疑似來自DeepSeek等中企的竊取嘗試,美中AI智慧財產爭端正式升級為政策戰場。
OpenAI、Anthropic、Google聯合出擊,阻斷中國AI「蒸餾抄襲」
OpenAI、Anthropic與Google DeepMind——全球三家最具影響力的AI實驗室——已悄然升級協調行動,矛頭指向中國AI業者透過「對抗性蒸餾」技術大規模複製美國前沿模型的行為。這場合作透過三家公司在2023年與Microsoft共同成立的非營利組織**前沿模型論壇(Frontier Model Forum)**正式化,標誌著AI產業罕見地以集體之力應對共同的競爭威脅與國家安全隱患。
什麼是「對抗性蒸餾」?
對抗性蒸餾的邏輯很簡單:不自己花幾億美元訓練一個頂尖模型,而是向已有的頂尖模型發送數百萬個精心設計的提示,記錄它的每一個回應,再用這些「輸入-輸出」配對訓練一個仿製模型。如此一來,仿製者幾乎不需要承擔原模型的訓練成本,卻能獲得接近的能力——說白了,就是免費搭便車。
知識蒸餾技術本身早在2015年就有學術論文,正常情況下被用來把大型模型壓縮成輕量版本,方便部署。但當這種技術被工業化、系統化地對準前沿模型,且背後可能有國家力量介入時,就進入了一個法律與地緣政治的灰色地帶——而美國AI公司過去一直不敢公開點名,直到現在。
Anthropic記錄1600萬次竊取嘗試
Anthropic向美國國會提交的數字觸目驚心:該公司共記錄約1600萬次自動化查詢嘗試,將其歸因於與DeepSeek、月之暗面(Moonshot AI)及MiniMax相關的蒸餾行動——這三家中國AI業者在過去18個月內均推出了具備競爭力的模型。
Anthropic的安全團隊發現,這些查詢絕非隨機。它們在統計上呈現系統性結構,有條不紊地探測推理、程式設計、多語言翻譯、工具使用及安全邊界等能力,呈現出自動化數據採集的明確特徵,而非正常用戶的使用行為。更令人憂慮的是,在多起有據可查的案例中,提取出的輸出被用於下游訓練,且過程中刻意去除了Claude的安全護欄。
「這不是競爭問題,而是盜竊問題,」Anthropic一位高層政策官員告訴彭博社,「他們把我們花了數十億美元建立的能力提取出去,還把我們花了數年時間開發的安全屬性全部拿掉。這種組合非常危險。」
OpenAI赴國會作證
OpenAI也在美國國會提交書面證詞,指DeepSeek「試圖搭OpenAI及其他美國前沿實驗室已開發能力的便車」。OpenAI指出,其前沿模型的發布時間與DeepSeek後續版本能力突飛猛進之間存在明顯的時間相關性,認為這在沒有大量數據採集的情況下難以解釋。
OpenAI估計,這些蒸餾行動每年讓美國AI公司損失數十億美元的競爭優勢——不過批評者也指出,這個數字本身難以核實,且DeepSeek的成就在一定程度上也反映了中國本土AI研究的真實實力。
Google未公開披露具體事件數量,但已確認透過前沿模型論壇共享了針對Gemini系列模型蒸餾嘗試的威脅情報。
前沿模型論壇的角色轉型
前沿模型論壇過去主要聚焦於AI安全基準測試與紅隊標準制定,如今正式擴展職能,成為一個智慧財產保護的情報共享聯盟。在新成立的工作小組下,各成員實驗室共享去識別化的攻擊特徵碼、IP位址段及蒸餾行為指紋,讓所有成員能夠同步更新速率限制、異常偵測與服務條款執法。
這形成了一種網絡效應:一家實驗室偵測並封鎖某個新的蒸餾行動後,其他三家可在數小時內封鎖相同的基礎設施,在攻擊者轉移陣地之前關閉漏洞。
法規與立法角力
政策意涵同樣深遠。OpenAI和Anthropic正積極遊說,希望聯邦立法明確將大規模對抗性蒸餾定性為一種商業秘密竊取行為,並依《經濟間諜法》追訴。目前,以蒸餾方式複製模型的法律地位仍不明確——模型權重本身在美國法律下可能不受版權保護,而提示-回應配對的地位更是曖昧。
美國商務部也已將此問題納入其正在進行的AI相關出口管制審查。其中一個討論中的選項,是將前沿模型的API存取視為「視同出口」的受管制技術,要求特定司法管轄區的用戶申請許可——此舉將從根本上重塑美國AI公司的國際開發者存取策略。
中國政府尚未就相關指控作出官方回應。DeepSeek、月之暗面與MiniMax均未回覆採訪請求。
質疑聲音
並非所有人都認為威脅如美國實驗室描述的那般明確。多位獨立AI研究員指出,這些實驗室有財務利益驅動,傾向把競爭包裝成智財竊盜;而許多表面上看似蒸餾的現象,可能只是在相似公開數據上訓練類似架構的自然結果。
「前沿模型越來越多地在相似語料上以相似的RLHF技術訓練,能力當然會趨於收斂,」一位AI研究員在X上寫道,「把這稱為蒸餾,是一個方便的敘事。」
另有學者擔憂,若相關立法廣泛地將蒸餾定性為盜竊,可能波及合法的模型壓縮研究、開源微調及學術基準測試,對全球研究社群造成寒蟬效應。
後續走向
三家實驗室預計將在未來數週內透過前沿模型論壇發布聯合白皮書,提出為模型輸出加入浮水印的技術標準草案,使蒸餾行為更易偵測。目前學術界已有多種密碼學浮水印方案,但尚未有任何一種在大規模對抗性去除攻擊下被證明夠健全。
在監管層面,這個聯盟正同時推動美國國內立法及透過G7協調行動——G7目前設有活躍的AI治理工作小組。最終結果很可能重塑前沿AI實驗室的API存取分層設計、服務條款執法邏輯,以及未來數年的地緣政治佈局。
有一點已毋庸置疑:把AI模型存取視為純粹商業問題、與國家安全無涉的時代,正在終結。美國前沿AI實驗室已經劃定了一條線——而他們正在要求華盛頓協助守住它。