跳至主要內容
FAQ

OpenAI、Google、Anthropic 聯手對抗中國 AI 模型複製攻擊

三大 AI 巨頭透過 Frontier Model Forum 共享機密威脅情報,共同防禦「對抗性蒸餾」攻擊——中國競爭對手透過數萬個假帳號,從美國頂尖 AI 模型中大規模擷取訓練資料。這場史無前例的競爭對手合作,標誌著美國 AI 產業在國家安全壓力下的重大轉折。

1 分鐘閱讀

矽谷史上最罕見的競爭合作正在上演:OpenAI、Google 與 Anthropic——三家在人才、企業合約與基準測試上打得你死我活的 AI 公司——如今正在分享彼此掌握的威脅情報,共同對抗一場針對美國頂尖 AI 模型的大規模竊密行動。

這場協作由 Frontier Model Forum(前沿模型論壇)居中統籌,微軟也是成員之一。根據知情人士透露,三家公司正在匯整有關「對抗性蒸餾」(adversarial distillation)攻擊的資料:攻擊者大量建立假帳號,有系統地向頂尖 AI 模型輸入精心設計的提示,以工業規模蒐集輸出結果,再將這些資料用於訓練成本更低的競爭模型。

問題的規模

促成這場合作的導火線,是 Anthropic 在 2026 年 2 月揭露的一起事件:三家中國 AI 公司使用超過 24,000 個假帳號,與 Claude 產生逾 1,600 萬次對話紀錄。這場行動手法縝密——帳號模仿正常開發者行為、將查詢分散至各類別以規避偵測,並以結構化格式彙整輸出,為微調(fine-tuning)做準備。

OpenAI 也曾向美國國會表示,中國 AI 實驗室 DeepSeek 試圖透過類似手段「搭便車」,白嫖美國 AI 能力。Google 也在 Gemini API 端點發現類似的攻擊模式。三家公司比對資料後,意識到這是一場有組織、跨機構的協調行動,規模之大無法忽視。

「這不是單一行為者在做單一事情——而是有系統、工業規模地將我們自己的輸出用來對付我們,」一位熟悉前沿模型論壇討論的人士匿名表示。「唯一理性的回應,就是分享在正常競爭情況下絕對不會分享的資訊。」

為何競爭對手願意合作?

三家公司內部都將這場合作定調為國家安全議題,而非商業策略。核心論點如下:如果中國實驗室能透過蒸餾美國模型的輸出,訓練出接近 GPT-5、Gemini 3.1 Pro 或 Claude Mythos 水準的模型,美國 AI 實驗室目前在資本與算力上的巨大優勢將蕩然無存——不需要出口任何 GPU,也不需要招募任何工程師。

蒸餾攻擊的經濟邏輯相當殘酷。從頭訓練一個頂尖模型需要數億至數十億美元的算力。但如果能用頂尖模型生成數億筆高品質的合成訓練資料,就能以極低成本微調較小的基礎模型,使其近似頂尖模型的能力。這項技術在學術界已討論多年,真正新穎之處在於目前攻擊的規模與膽量。

前沿模型論壇的合作主要是共享「偵測特徵」:可以顯示 API 使用模式、提示結構與帳號行為屬於蒸餾攻擊而非正常用途的特徵碼。各公司的資安團隊向共用資料庫貢獻資料,三方均可查詢。值得注意的是,三家公司並未分享模型權重、架構或商業機密——僅限威脅情報。

技術層面的反制措施

除了情報共享,這場聯盟也推動各家實驗室加速強化自身防禦能力。Anthropic 據報已部署新的行為聚類模型,能在個別查詢看似無害的情況下,偵測帳號群的協調查詢模式。OpenAI 則實施了業內人士所稱的「輸出浮水印」——在模型輸出中嵌入細微的統計特徵,這些特徵即使在蒸餾過程中也能保留,並可在衍生模型中被偵測到。

Google 採取了不同的路徑:Gemini API 現在透過自適應流量限制與提示複雜度分析,識別查詢模式是否類似合成資料生成。系統不會直接封鎖流量——那樣反而容易被察覺——而是以隱微方式降低輸出品質,使其在微調上的效用大打折扣。

這些措施都不是萬無一失。成熟的攻擊者可以透過多國節點路由查詢、使用住宅代理、改變提示風格,並後處理輸出以去除浮水印。但情報共享與技術反制措施的組合,大幅提高了大規模對抗性蒸餾攻擊的成本與複雜度。

更廣泛的地緣政治脈絡

這場聯盟反映了美國 AI 產業對中國競爭態度的全面轉硬。2023 至 2024 年間,多數美國 AI 實驗室仍普遍認為與中國研究人員的開放學術交流對全球 AI 發展整體有利。這樣的共識如今已急遽瓦解。

2025 年初 DeepSeek 發布 R1 模型,以遠低於美國同類模型的算力成本取得競爭性能,進一步加速了這場轉變。DeepSeek 究竟是真的效率更高,還是受益於美國模型輸出的蒸餾,至今仍有爭議——但這個問題本身已在推動政策走向。

前沿模型論壇的行動對規模較小的 AI 實驗室與開源模型提供者造成壓力。這些組織缺乏資源建立複雜的對抗性偵測系統。如果蒸餾攻擊得以對 Llama、Mistral 或 Falcon 等模型奏效,其效益最終可能間接流向針對閉源頂尖模型的攻勢。

對產業的意義

對企業用戶而言,這場聯盟大多不可見——API 存取與定價並未受到影響。但這場合作表明,「AI 競賽」的美中科技競爭敘事,正從「誰能建構最強大的模型」,轉向「一旦模型建成,誰能保護其價值」。

對政策制定者而言,這場聯盟增加了建立正式法律框架的壓力,以規範模型蒸餾行為。目前,跨境以系統性輸出擷取進行商業微調,是否違反服務條款且具法律強制力,仍是未解之謎。前沿模型論壇的多個成員已開始遊說商務部與美國貿易代表辦公室,主張為 AI 模型輸出建立明確的貿易保護機制——將其視為類似商業機密的資產,而非可自由取用的公開資訊。

諷刺意味相當濃烈:三家多年來宣稱彼此處於激烈零和競爭的公司,如今正在合作推動一項產業自保協議。在這個過程中,它們也隱含地承認:頂尖 AI 模型的輸出——不僅僅是模型本身——已成為值得集體捍衛的地緣政治敏感資產。

這場聯盟能否在競爭壓力持續升溫下維繫,仍有待觀察。但至少就目前而言,對抗性蒸餾的威脅已完成政府多年呼籲卻無法實現的事:讓 OpenAI、Google 與 Anthropic 坐在了同一張桌子上。

openai google anthropic 中國 ai安全 前沿模型論壇 對抗性蒸餾
分享

相關報導