OpenAI 限制推出 GPT-5.5-Cyber:專為網路防禦打造的 AI 安全模型
OpenAI 推出 GPT-5.5-Cyber,這是其旗艦模型專為網路安全任務調校的特殊版本,透過「網路信任存取計畫」(TAC)限制發布,僅開放給經審查的政府機構、關鍵基礎設施業者及安全廠商。該模型在 OpenAI 準備框架下被評為「高風險」,能執行二進位逆向工程、漏洞識別及進階威脅分析,標誌著 AI 在網路攻防戰中的角色正快速升級。
OpenAI 於 2026 年 4 月 30 日宣布,開始透過限制存取計畫向特定機構推出 GPT-5.5-Cyber,這是其最新旗艦模型針對網路安全應用所調校的特殊版本。本次發布被視為 OpenAI 將 AI 打造為第一線網路防禦工具的重要里程碑,同時也是在管控高能力模型雙重用途風險上的一次謹慎嘗試。
GPT-5.5-Cyber 是什麼?
GPT-5.5-Cyber 並非獨立的全新模型,而是 OpenAI 在 2026 年 4 月推出的 GPT-5.5 基礎上,針對安全工作流程重新調校的版本。GPT-5.5 本身在多項推理與任務完成基準測試中已超越人類表現,Cyber 版本則將這些核心能力集中應用於資安情境。
最引人注目的新能力是二進位逆向工程:無需取得底層原始碼,即可分析已編譯的軟體,找出惡意程式跡象、漏洞及安全性問題。對於需要分析國家級惡意程式樣本或閉源軟體零日漏洞的安全分析師來說,這項能力能大幅縮短威脅回應的瓶頸。過去需要資深逆向工程師數小時才能完成的工作,現在可以透過 AI 輔助的結構分析在幾分鐘內取得初步結果。
其他主要能力包括:AI 輔助漏洞識別、企業網路自動化威脅評估,以及針對電網、水利系統、金融清算網路等關鍵基礎設施的防護分析。此外,GPT-5.5-Cyber 在對抗模擬任務上也優於前代的 GPT-5.4-Cyber,讓紅隊測試人員能夠生成更逼真的攻擊情境。
網路信任存取計畫(TAC)
GPT-5.5-Cyber 不會透過 OpenAI 的公開 API 提供。相反,公司透過網路信任存取計畫(Trusted Access for Cyber,TAC)進行分發,這是一套限制特定組織類型存取的審查機制,適用對象包括政府機構、關鍵基礎設施業者、資安廠商、雲端平台供應商及金融機構。
TAC 計畫建立在 4 月中旬推出的 GPT-5.4-Cyber 基礎之上,後者發布時附帶了 1,000 萬美元的 API 補助,提供給審核通過的安全機構。隨著 GPT-5.5-Cyber 的推出,OpenAI 正擴大計畫規模與覆蓋範圍。執行長 Sam Altman 於 4 月 30 日公開確認推出計畫,表示:「我們將在未來幾天內開始向關鍵網路防禦者推出 GPT-5.5-Cyber。」
TAC 框架體現了 OpenAI 已明確闡述的五大網路安全戰略支柱:普及網路防禦工具的存取、與政府及產業夥伴協調、強化進階能力的防護措施、確保部署可視性,以及讓用戶能夠自我防護。設計核心在於給予受信任的防禦者有意義的能力優勢,同時限制相同工具被對手用於攻擊目的。
風險分類:高風險,非關鍵風險
根據 OpenAI 的「準備框架」(Preparedness Framework),GPT-5.5-Cyber 被評定為**「高風險」**——評估人員認為該模型可能「放大現有的嚴重危害路徑」,但未達到「關鍵風險」等級,即「提供前所未有的新型嚴重危害路徑」。這個區別至關重要:它讓推出計畫得以在 TAC 框架下繼續進行,而非觸發安全審查暫停機制。
英國 AI 安全研究所(AISI)對 GPT-5.5-Cyber 的能力進行了獨立評估,其公開發現相當直白。紅隊測試人員發現了一個通用越獄方法——一種能在所有惡意網路查詢類別中引發違規回應的手法——開發該方法花費了六小時的專家工作時間。OpenAI 隨後更新了防護機制,針對模型的拒絕回應機制和監控層進行了多項修改。
然而,AISI 指出提供給他們審查的版本存在配置問題,導致他們無法驗證最終更新後的防護配置是否有效。英國政府決定公開披露這一發現——對於 AI 安全評估而言,這種具體程度實屬罕見——標誌著一種日趨成熟的透明、獨立 AI 能力審查文化,並開始樹立國際規範。
防禦性定位的矛盾
OpenAI 強調 GPT-5.5-Cyber 是一款防禦工具,推出的框架圍繞著「受信任的防禦者」、「關鍵基礎設施保護」及「國家網路韌性」等概念。然而,網路安全工具本質上具有雙重用途:幫助防禦者找出工業控制軟體漏洞的同一種二進位分析能力,若落入不當人士手中,也可以用來為攻擊者描繪同一系統的藍圖。
OpenAI 對這種張力的回應是流程管控——TAC 審查框架、API 層級的使用監控,以及部署可視性控制措施。對於一個在公司自身框架下被評為「高風險」的模型,這些管控措施是否足夠,在資安研究社群中仍是未解之題。AISI 發現的越獄方法——即便後來已修補——強調了即使是高度受控的模型,對抗性能力提取仍是現實威脅。
本次發布也讓 OpenAI 與成熟的網路安全 AI 平台直接競爭。Google 已在其 Mandiant 安全部門部署基於 Gemini 的工具,微軟的 Security Copilot 則在企業環境中整合了 GPT-5.x 模型。GPT-5.5-Cyber 的不同之處,在於 OpenAI 嘗試以受控存取框架提供最具能力的原始模型——針對合法安全工作降低拒絕回應門檻——而非將其包裝進具有更保守防護措施的成品安全產品中。
後續展望
隨著 GPT-5.5-Cyber 進入 TAC 早期合作夥伴手中,下一階段是實際驗證。政府機構和關鍵基礎設施業者的安全團隊將針對真實世界情境對模型進行壓力測試——結果,特別是模型在生產環境中如何應對對抗性提示,將為未來的模型訓練以及歐盟、英國和美國層級的政策框架提供重要參考。
對整個 AI 產業而言,這次推出強化了 2026 年日益清晰的趨勢:最具能力的 AI 系統不再公開發布,而是透過受控計畫部署,嘗試給予受信任的夥伴有意義的優勢,同時限制更廣泛的擴散。GPT-5.5-Cyber 是迄今為止最清晰的例子,展示了一家前沿 AI 公司將其最敏感的能力視為主權防禦資產——謹慎分發,而非公開發布。
隨著模型能力持續提升,這種管控策略能維持多久,是今年 AI 安全領域最核心的問題。